title
stringlengths
0
720
abstract
stringlengths
1
32.5k
source
stringclasses
3 values
Observación, recolección y transfiguración luminosa de residuos hallados en el borde costero : una mirada pictórica.
La investigación desarrollada en este escrito, correspondió a un análisis práctico-teórico que examinó la percepción de una presencia o fantasma en el interior de una serie de desechos marinos hallados en el borde costero del litoral central. Esta experiencia, vivida por el autor, fue la motivación para llevar a cabo estos estudios. La propuesta artística consistió en recolectar esta clase de residuos, para luego observarlos a través de un método denominado Sistemas de Visión Artificial. El plan de estudio se apoyó en el uso de la luz como medio para esclarecer lo que habitaba en el interior de los desechos. De este modo, la interpretación del proceso utilizado propone una discusión de orden pictórico al origen de la presencia. Los resultados finales de la investigación arrojaron efectos y defectos ocasionados por la proyección de sombras en el muro. Las conclusiones establecidas proponen que la identidad de lo que reside en el fondo de estos desechos marinos corresponde a los restos de Anadiómene.
uc
Memoria emotiva de Santiago : encuentro con la "flora bastarda".
"Memoria emotiva de Santiago: encuentro con la flora bastarda” está dedicada/enfocada al trabajo visual realizado a partir de recorridos por la ciudad de Santiago. Su trama se teje a través de los hallazgos encontrados en estos trayectos y forma en que estos provocan una relación con la “memoria emotiva” del autor. Este texto relata las diferentes aristas que aparecen al intentar entender por qué se cargan de significados ciertos elementos que se descubren en las travesías por esta ciudad. A su vez, explica las características que nos trasladan a una reminiscencia de Santiago. A través del caminar se incita el registro de la identificación de elementos como la "flora bastarda". Desde ahí comienza el trabajo de reconstrucción de memoria a través de estos registros fotográficos. Finalmente, se invita a reflexionar sobre los aspectos cotidianos y personales, intentando esclarecer por qué adoptamos lugares o elementos habituales de una ciudad, como constituyentes propios de nuestra historia.
uc
Emergencia y rebase en la pose y puesta en práctica del cuerpo transformista/travesti (trans/trave) en Chile.
La siguiente investigación aborda los procesos y procedimientos implicados en la emergencia del cuerpo transformista/travesti (trans/trave) en Chile. Ello se analiza desde una perspectiva escénica y, en particular, desde los procesos de corporización presentes en algunas practicantes aquí recogidas. En función de ello, se da revisión tanto al estado del estudio de estos cuerpos en la academia, así como también, al desarrollo histórico de esta práctica, mediante una revisión de los espacios en que se ha desarrollado. En concordancia con lo anterior, se profundiza en los procesos de corporización y sus procedimientos de escenificación. A través de lo anteriormente expuesto, esta tesis revisa el ‘fenómeno de rebase’ presente en casos singulares de la realización del cuerpo trans/trave. A través de este fenómeno se cuestionan los soportes en que aparece el cuerpo trans/trave y los modos de relación que ellos imponen en su medialidad. Además de ello, hacia el final se analiza la dimensión política implicada en la realización escénica de los cuerpos aquí tratados y las consecuencias que de ahí se desprenden para sus circuitos y plataformas de aparición.
uc
Interacción molecular de los receptores CRH-R2 y DA-D1 en el área tegmental ventral de rata.
La administración repetida de drogas de abuso genera cambios plásticos perdurables que se traducen en alteraciones en las propiedades funcionales de las neuronas del sistema mesocorticolímbico, como lo es la sensibilización de la liberación de glutamato en el área tegmental ventral (VTA) inducida por la administración repetida de cocaína, esto determina la recaída a la droga (Wang y cols. 2005). Dicha sensibilización estaría siendo modulada por la activación de receptores dopaminérgicos D1 (DA-D1) y de los receptores CRH-R2. Por otra parte, se ha observado que la administración repetida de cocaína también induce una facilitación de la transmisión glutamatérgica presináptica, en la corteza prefrontal (CPF), dicha facilitación glutamatérgica estaría mediada por la co-activación de receptores CRH-R2 y DA-D1, sugiriendo que dichos cambios estarían ocurriendo por uno o más mecanismos como: cooperatividad entre los receptores, vías de señalización en común y/o por la formación de heterómeros de los receptores DA-D1 y CRH-R2. La interacción funcional y/o molecular de receptores metabotrópicos o heterómeros de receptores, ha aportado interesantes hallazgos sobre la regulación de la liberación de glutamato en núcleos del cerebro como el Cuerpo Estriado. En base a estos antecedentes no propusimos estudiar el papel de los receptores DAD1 y CRH-R2 en la sensibilización de la liberación de glutamato en el VTA inducida por la administración repetida de cocaína. Nuestros resultados muestran que existe una interacción funcional entre dichos receptores sólo en las ratas expuestas al tratamiento repetido con cocaína. Con respecto a la localización, hemos determinado que existe un 34,1 % de la población de terminales glutamatérgicos de origen subcortical que poseen receptores DA-D1 y CRH-R2. Finalmente, hemos demostrado por varias técnicas que existe una interacción molecular entre los receptores CRH-R2 y DA-D1.
uc
Multiphysics modeling and experimental behavior of viscous fluid dampers
Durante las últimas décadas, el uso de amortiguadores viscosos para la disipación de energía en estructuras expuestas a sismos severos ha aumentado progresivamente. Los objetivos principales de este trabajo son develar los parámetros de diseño que controlan el comportamiento de amortiguadores viscosos sometidos a excitaciones harmónicas y, posteriormente, desarrollar una comparación entre respuestas analíticas y experimentales. A pesar de que existe una amplia literatura relacionada a este tipo de dispositivos, poco se ha publicado sobre los detalles de diseño que afectan su comportamiento, debido a la complejidad de los fenómenos físicos involucrados y al secreto industrial que protege a los componentes de amortiguadores comerciales. Motivado por esto, se desarrollaron modelos matemáticos que consideran la dinámica de fluidos y el comportamiento térmico dentro del amortiguador, los cuales se resolvieron con software de simulación numérica con capacidades multifísicas, es decir, capaces de manejar distintos fenómenos físicos acoplados. Primero, se presentan las ecuaciones relevantes que gobiernan el problema y se discuten sus tendencias dominantes. Luego se llevan a cabo análisis paramétricos para entender en profundidad la influencia de aspectos tales como dimensiones, relaciones geométricas entre los distintos componentes y propiedades del fluido en el comportamiento del amortiguador. Para validar y calibrar los modelos se diseñó y fabricó un prototipo a escala completa con una capacidad de 600 k , el cual fue ensayado en el Laboratorio de Ingeniería Estructural. El prototipo incluye un pistón intercambiable, permitiendo ensayar distintas configuraciones internas y fluidos. Los resultados muestran una buena concordancia entre los modelos matemáticos y físicos, lo cual resulta relevante para el diseño futuro y la producción de otras capacidades y configuraciones. En general, las incertidumbres del modelo se pueden atribuir a la representación a través de ecuaciones diferenciales parciales complejas, pero también a las propiedades reológicas de los fluidos empleados, especialmente su relación constitutiva no lineal.
uc
Commodity and asset pricing models : an integration
Se presenta una simple metodología para integrar modelos de commodities y de valorización de activos. Considerando la nueva evidencia sobre la financialización de los mercados de commodities, información valiosa se puede extraer de los modelos de valorización de activos y usar para mejorar substancialmente la estimación de los precios esperados que entregan los actuales modelos de precios de commodities. La metodología se puede usar con cualquier par de modelos de commodities y de valorización de activos. Se presenta una implementación de esta metodología usando el modelo de dos factores de Schwartz y Smith (2000) junto con el CAPM. Se obtuvieron precios esperados razonables sin consecuencias negativas sobre el ajuste del modelo a los precios futuros.
uc
Aproximación a la política de número crítico óptima para un sistema de inventario de un producto perecible
La gestión de inventarios es una función de gran importancia dentro de los planes operativos y estratégicos de una organización. En la literatura existen varios modelos de inventario que suponen que el producto puede ser almacenado por un tiempo ilimitado, lo que no es válido para productos perecibles. Un claro ejemplo de esto es el mercado de los alimentos, el que excede fácilmente el billón de dólares en ventas mundiales anuales y en que más de un tercio de estas ventas la constituyen productos frescos, lácteos y carnes. En este trabajo estudiamos la aplicación de una Política de Número Crítico, como política de ordenamiento, en un sistema de inventario de revisión periódica para un producto perecible, sujeto a una estructura de costos lineales. Bajo ciertos supuestos y consideraciones, este sistema corresponde a una cadena de Markov en tiempo discreto. Determinar el número crítico óptimo es un problema de gran complejidad computacional, debido a lo difícil que resulta calcular la cantidad esperada de vencimientos. En la literatura existen cotas a esta cantidad que permiten plantear un problema de optimización que aproxime el número críico óptimo. El objetivo de este trabajo fue desarrollar una nueva aproximación, más simple, sin sacrificar (mayormente) el desempeño obtenido. Nuestro enfoque fue (1) utilizar las cotas existentes para estimar la cantidad esperada de vencimientos y (2) realizar simplificaciones que permitieran llevar el problema original a uno con la estructura del conocido Problema del Vendedor de Periódicos, de manera de aprovechar la simpleza de su resolución; logrando determinar una expresión cerrada. Un intenso estudio computacional reveló que el desempeño de nuestra aproximación es totalmente comparable con lo existente en la literatura, teniendo costos muy cercanos a los de la Política de Número Crítico óptima y a los de la política óptima, con una diferencia siempre menor al 0.3% y al 2 %, respectivamente. Así, pasamos de un problema de optimización que se debe resolver, a una expresión cerrada que solo se debe evaluar.
uc
Development, calibration and validation of a dynamic genome-scale metabolic model of saccharomyces cerevisiae
En la industria biotecnológica es fundamental contar con modelos matemáticos precisos que describan un microorganismo en detalle, de manera de que podamos hacer predicciones sin tener que incurrir en una cantidad excesiva de experimentos. El análisis dinámico de balance de flujos (dFBA) se ocupa regularmente para simular cultivos batch y fed-batch, los procesos industriales biotecnológicos más recurrentes; sin embargo, sólo unos pocos de estos modelos han sido calibrados y validados bajo diferentes condiciones experimentales. Además, a la fecha, la importancia de los diferentes parámetros usualmente utilizados en este tipo de modelos no ha sido debidamente estudiada. En este trabajo presentamos un modelo dFBA a escala genómica de Saccharomyces cerevisiae calibrado por primera vez con datos tanto de cultivos fed-batch aeróbicos como batch anaeróbicos, junto con un nuevo procedimiento para determinar cuáles parámetros del modelo son relevantes para calibración (en términos de sensibilidad, identificabilidad y significancia). El modelo dFBA contiene varias cinéticas, incluyendo crecimiento sub-óptimo, consumo de glucosa, ATP de mantenimiento, requerimientos de biomasa y producción de metabolitos secundarios. También integra datos de expresión génica. Por otro lado, el procedimiento de calibración usa optimización metaheurística y análisis de pre/post regresión, y fija iterativamente los parámetros que no tienen un rol significativo en el modelo, de manera de obtener modelos con un número razonable de parámetros. Finalmente, a los modelos obtenidos se les hizo una calibración cruzada para asegurar que sean predictivos. Usando este enfoque, mostramos que el consumo de glucosa, el crecimiento sub-óptimo, y las tasas de producción son mucho más útiles para calibrar los modelos que reglas Booleanas constantes de expresión génica, los requerimientos de biomasa o el ATP de mantenimiento. Más aún, se obtuvieron modelos dFBA confiables (por primera vez) con parámetros sensibles, significativos y sin correlaciones, y que a la vez son capaces de calibrar varias condiciones experimentales. Estos modelos dFBA de levadura robustos y predictivos serán útiles para diseñar cepas optimizadas para diversas aplicaciones en ingeniería metabólica.
uc
Sensores móviles : la relación entre la disponibilidad de datos y la estimación de estados de tráfico
La creciente incorporación de sistemas de navegación geo-referenciados a teléfonos celulares entrega nuevas opciones para monitorear el tráfico. Estos dispositivos pueden registrar y enviar gran cantidad de datos de tráfico, los cuales pueden ser utilizados para la estimación de estados de tráfico en las distintas vías. Sin embargo, es necesario entender la relación entre la cantidad y calidad de los datos recolectados y la estimación de estados de tráfico. En esta tesis se analiza esta relación a través del análisis sistemático de dos bases de datos de trayectorias vehiculares de secciones de autopista. La primera contiene trayectorias reales, mientras que la segunda trayectorias obtenidas de microsimulación. Sobre ellas se crearon escenarios hipotéticos en cuanto a cantidad y composición de datos a enviar por los vehículos, dado que un mismo número total de datos puede obtenerse de distintas formas. Esto se realizó a través de la definición de valores de variables de importancia relacionadas con el envío de datos: la penetración de sensores móviles en el flujo vehicular, la frecuencia con que cada uno de ellos envía un dato, y la anonimidad del dato enviado. Cada combinación de estos valores definió un escenario en particular. Para cada escenario, la estimación de estados de tráfico se realizó a través de dos métodos simples y uno más avanzado al incorporar teoría de tráfico vehicular. En cuanto a los resultados obtenidos, destacan los siguientes: i) la formulación propuesta para cuantificar la cantidad de datos a recibir entrega errores relativos menores al 6%, ii) para los métodos evaluados, escenarios en los cuales se preserva la anonimidad de los datos no presentan desventajas en la estimación de estados de tráfico comparados con aquellos que no preservan la privacidad, iii) se estimó una expresión del error en la estimación en función de las características de cada escenario, y iv) se determinaron los escenarios en los cuales un aumento en la penetración a fin de aumentar el número total de datos, y mejorar así la estimación de estados de tráfico, es más conveniente que un aumento en la frecuencia de muestreo (y vice-versa). Estos resultados permiten entender de mejor manera la relación que existe entre los datos recolectados de sensores móviles y la estimación de estados de tráfico, entregando en definitiva políticas de uso de estos sensores relacionadas a la privacidad de usuarios y calidad de la estimación.La creciente incorporación de sistemas de navegación geo-referenciados a teléfonos celulares entrega nuevas opciones para monitorear el tráfico. Estos dispositivos pueden registrar y enviar gran cantidad de datos de tráfico, los cuales pueden ser utilizados para la estimación de estados de tráfico en las distintas vías. Sin embargo, es necesario entender la relación entre la cantidad y calidad de los datos recolectados y la estimación de estados de tráfico. En esta tesis se analiza esta relación a través del análisis sistemático de dos bases de datos de trayectorias vehiculares de secciones de autopista. La primera contiene trayectorias reales, mientras que la segunda trayectorias obtenidas de microsimulación. Sobre ellas se crearon escenarios hipotéticos en cuanto a cantidad y composición de datos a enviar por los vehículos, dado que un mismo número total de datos puede obtenerse de distintas formas. Esto se realizó a través de la definición de valores de variables de importancia relacionadas con el envío de datos: la penetración de sensores móviles en el flujo vehicular, la frecuencia con que cada uno de ellos envía un dato, y la anonimidad del dato enviado. Cada combinación de estos valores definió un escenario en particular. Para cada escenario, la estimación de estados de tráfico se realizó a través de dos métodos simples y uno más avanzado al incorporar teoría de tráfico vehicular. En cuanto a los resultados obtenidos, destacan los siguientes: i) la formulación propuesta para cuantificar la cantidad de datos a recibir entrega errores relativos menores al 6%, ii) para los métodos evaluados, escenarios en los cuales se preserva la anonimidad de los datos no presentan desventajas en la estimación de estados de tráfico comparados con aquellos que no preservan la privacidad, iii) se estimó una expresión del error en la estimación en función de las características de cada escenario, y iv) se determinaron los escenarios en los cuales un aumento en la penetración a fin de aumentar el número total de datos, y mejorar así la estimación de estados de tráfico, es más conveniente que un aumento en la frecuencia de muestreo (y vice-versa). Estos resultados permiten entender de mejor manera la relación que existe entre los datos recolectados de sensores móviles y la estimación de estados de tráfico, entregando en definitiva políticas de uso de estos sensores relacionadas a la privacidad de usuarios y calidad de la estimación.La creciente incorporación de sistemas de navegación geo-referenciados a teléfonos celulares entrega nuevas opciones para monitorear el tráfico. Estos dispositivos pueden registrar y enviar gran cantidad de datos de tráfico, los cuales pueden ser utilizados para la estimación de estados de tráfico en las distintas vías. Sin embargo, es necesario entender la relación entre la cantidad y calidad de los datos recolectados y la estimación de estados de tráfico. En esta tesis se analiza esta relación a través del análisis sistemático de dos bases de datos de trayectorias vehiculares de secciones de autopista. La primera contiene trayectorias reales, mientras que la segunda trayectorias obtenidas de microsimulación. Sobre ellas se crearon escenarios hipotéticos en cuanto a cantidad y composición de datos a enviar por los vehículos, dado que un mismo número total de datos puede obtenerse de distintas formas. Esto se realizó a través de la definición de valores de variables de importancia relacionadas con el envío de datos: la penetración de sensores móviles en el flujo vehicular, la frecuencia con que cada uno de ellos envía un dato, y la anonimidad del dato enviado. Cada combinación de estos valores definió un escenario en particular. Para cada escenario, la estimación de estados de tráfico se realizó a través de dos métodos simples y uno más avanzado al incorporar teoría de tráfico vehicular. En cuanto a los resultados obtenidos, destacan los siguientes: i) la formulación propuesta para cuantificar la cantidad de datos a recibir entrega errores relativos menores al 6%, ii) para los métodos evaluados, escenarios en los cuales se preserva la anonimidad de los datos no presentan desventajas en la estimación de estados de tráfico comparados con aquellos que no preservan la privacidad, iii) se estimó una expresión del error en la estimación en función de las características de cada escenario, y iv) se determinaron los escenarios en los cuales un aumento en la penetración a fin de aumentar el número total de datos, y mejorar así la estimación de estados de tráfico, es más conveniente que un aumento en la frecuencia de muestreo (y vice-versa). Estos resultados permiten entender de mejor manera la relación que existe entre los datos recolectados de sensores móviles y la estimación de estados de tráfico, entregando en definitiva políticas de uso de estos sensores relacionadas a la privacidad de usuarios y calidad de la estimación.La creciente incorporación de sistemas de navegación geo-referenciados a teléfonos celulares entrega nuevas opciones para monitorear el tráfico. Estos dispositivos pueden registrar y enviar gran cantidad de datos de tráfico, los cuales pueden ser utilizados para la estimación de estados de tráfico en las distintas vías. Sin embargo, es necesario entender la relación entre la cantidad y calidad de los datos recolectados y la estimación de estados de tráfico. En esta tesis se analiza esta relación a través del análisis sistemático de dos bases de datos de trayectorias vehiculares de secciones de autopista. La primera contiene trayectorias reales, mientras que la segunda trayectorias obtenidas de microsimulación. Sobre ellas se crearon escenarios hipotéticos en cuanto a cantidad y composición de datos a enviar por los vehículos, dado que un mismo número total de datos puede obtenerse de distintas formas. Esto se realizó a través de la definición de valores de variables de importancia relacionadas con el envío de datos: la penetración de sensores móviles en el flujo vehicular, la frecuencia con que cada uno de ellos envía un dato, y la anonimidad del dato enviado. Cada combinación de estos valores definió un escenario en particular. Para cada escenario, la estimación de estados de tráfico se realizó a través de dos métodos simples y uno más avanzado al incorporar teoría de tráfico vehicular. En cuanto a los resultados obtenidos, destacan los siguientes: i) la formulación propuesta para cuantificar la cantidad de datos a recibir entrega errores relativos menores al 6%, ii) para los métodos evaluados, escenarios en los cuales se preserva la anonimidad de los datos no presentan desventajas en la estimación de estados de tráfico comparados con aquellos que no preservan la privacidad, iii) se estimó una expresión del error en la estimación en función de las características de cada escenario, y iv) se determinaron los escenarios en los cuales un aumento en la penetración a fin de aumentar el número total de datos, y mejorar así la estimación de estados de tráfico, es más conveniente que un aumento en la frecuencia de muestreo (y vice-versa). Estos resultados permiten entender de mejor manera la relación que existe entre los datos recolectados de sensores móviles y la estimación de estados de tráfico, entregando en definitiva políticas de uso de estos sensores relacionadas a la privacidad de usuarios y calidad de la estimación.La creciente incorporación de sistemas de navegación geo-referenciados a teléfonos celulares entrega nuevas opciones para monitorear el tráfico. Estos dispositivos pueden registrar y enviar gran cantidad de datos de tráfico, los cuales pueden ser utilizados para la estimación de estados de tráfico en las distintas vías. Sin embargo, es necesario entender la relación entre la cantidad y calidad de los datos recolectados y la estimación de estados de tráfico. En esta tesis se analiza esta relación a través del análisis sistemático de dos bases de datos de trayectorias vehiculares de secciones de autopista. La primera contiene trayectorias reales, mientras que la segunda trayectorias obtenidas de microsimulación. Sobre ellas se crearon escenarios hipotéticos en cuanto a cantidad y composición de datos a enviar por los vehículos, dado que un mismo número total de datos puede obtenerse de distintas formas. Esto se realizó a través de la definición de valores de variables de importancia relacionadas con el envío de datos: la penetración de sensores móviles en el flujo vehicular, la frecuencia con que cada uno de ellos envía un dato, y la anonimidad del dato enviado. Cada combinación de estos valores definió un escenario en particular. Para cada escenario, la estimación de estados de tráfico se realizó a través de dos métodos simples y uno más avanzado al incorporar teoría de tráfico vehicular. En cuanto a los resultados obtenidos, destacan los siguientes: i) la formulación propuesta para cuantificar la cantidad de datos a recibir entrega errores relativos menores al 6%, ii) para los métodos evaluados, escenarios en los cuales se preserva la anonimidad de los datos no presentan desventajas en la estimación de estados de tráfico comparados con aquellos que no preservan la privacidad, iii) se estimó una expresión del error en la estimación en función de las características de cada escenario, y iv) se determinaron los escenarios en los cuales un aumento en la penetración a fin de aumentar el número total de datos, y mejorar así la estimación de estados de tráfico, es más conveniente que un aumento en la frecuencia de muestreo (y vice-versa). Estos resultados permiten entender de mejor manera la relación que existe entre los datos recolectados de sensores móviles y la estimación de estados de tráfico, entregando en definitiva políticas de uso de estos sensores relacionadas a la privacidad de usuarios y calidad de la estimación.La creciente incorporación de sistemas de navegación geo-referenciados a teléfonos celulares entrega nuevas opciones para monitorear el tráfico. Estos dispositivos pueden registrar y enviar gran cantidad de datos de tráfico, los cuales pueden ser utilizados para la estimación de estados de tráfico en las distintas vías. Sin embargo, es necesario entender la relación entre la cantidad y calidad de los datos recolectados y la estimación de estados de tráfico. En esta tesis se analiza esta relación a través del análisis sistemático de dos bases de datos de trayectorias vehiculares de secciones de autopista. La primera contiene trayectorias reales, mientras que la segunda trayectorias obtenidas de microsimulación. Sobre ellas se crearon escenarios hipotéticos en cuanto a cantidad y composición de datos a enviar por los vehículos, dado que un mismo número total de datos puede obtenerse de distintas formas. Esto se realizó a través de la definición de valores de variables de importancia relacionadas con el envío de datos: la penetración de sensores móviles en el flujo vehicular, la frecuencia con que cada uno de ellos envía un dato, y la anonimidad del dato enviado. Cada combinación de estos valores definió un escenario en particular. Para cada escenario, la estimación de estados de tráfico se realizó a través de dos métodos simples y uno más avanzado al incorporar teoría de tráfico vehicular. En cuanto a los resultados obtenidos, destacan los siguientes: i) la formulación propuesta para cuantificar la cantidad de datos a recibir entrega errores relativos menores al 6%, ii) para los métodos evaluados, escenarios en los cuales se preserva la anonimidad de los datos no presentan desventajas en la estimación de estados de tráfico comparados con aquellos que no preservan la privacidad, iii) se estimó una expresión del error en la estimación en función de las características de cada escenario, y iv) se determinaron los escenarios en los cuales un aumento en la penetración a fin de aumentar el número total de datos, y mejorar así la estimación de estados de tráfico, es más conveniente que un aumento en la frecuencia de muestreo (y vice-versa). Estos resultados permiten entender de mejor manera la relación que existe entre los datos recolectados de sensores móviles y la estimación de estados de tráfico, entregando en definitiva políticas de uso de estos sensores relacionadas a la privacidad de usuarios y calidad de la estimación.La creciente incorporación de sistemas de navegación geo-referenciados a teléfonos celulares entrega nuevas opciones para monitorear el tráfico. Estos dispositivos pueden registrar y enviar gran cantidad de datos de tráfico, los cuales pueden ser utilizados para la estimación de estados de tráfico en las distintas vías. Sin embargo, es necesario entender la relación entre la cantidad y calidad de los datos recolectados y la estimación de estados de tráfico. En esta tesis se analiza esta relación a través del análisis sistemático de dos bases de datos de trayectorias vehiculares de secciones de autopista. La primera contiene trayectorias reales, mientras que la segunda trayectorias obtenidas de microsimulación. Sobre ellas se crearon escenarios hipotéticos en cuanto a cantidad y composición de datos a enviar por los vehículos, dado que un mismo número total de datos puede obtenerse de distintas formas. Esto se realizó a través de la definición de valores de variables de importancia relacionadas con el envío de datos: la penetración de sensores móviles en el flujo vehicular, la frecuencia con que cada uno de ellos envía un dato, y la anonimidad del dato enviado. Cada combinación de estos valores definió un escenario en particular. Para cada escenario, la estimación de estados de tráfico se realizó a través de dos métodos simples y uno más avanzado al incorporar teoría de tráfico vehicular. En cuanto a los resultados obtenidos, destacan los siguientes: i) la formulación propuesta para cuantificar la cantidad de datos a recibir entrega errores relativos menores al 6%, ii) para los métodos evaluados, escenarios en los cuales se preserva la anonimidad de los datos no presentan desventajas en la estimación de estados de tráfico comparados con aquellos que no preservan la privacidad, iii) se estimó una expresión del error en la estimación en función de las características de cada escenario, y iv) se determinaron los escenarios en los cuales un aumento en la penetración a fin de aumentar el número total de datos, y mejorar así la estimación de estados de tráfico, es más conveniente que un aumento en la frecuencia de muestreo (y vice-versa). Estos resultados permiten entender de mejor manera la relación que existe entre los datos recolectados de sensores móviles y la estimación de estados de tráfico, entregando en definitiva políticas de uso de estos sensores relacionadas a la privacidad de usuarios y calidad de la estimación.La creciente incorporación de sistemas de navegación geo-referenciados a teléfonos celulares entrega nuevas opciones para monitorear el tráfico. Estos dispositivos pueden registrar y enviar gran cantidad de datos de tráfico, los cuales pueden ser utilizados para la estimación de estados de tráfico en las distintas vías. Sin embargo, es necesario entender la relación entre la cantidad y calidad de los datos recolectados y la estimación de estados de tráfico. En esta tesis se analiza esta relación a través del análisis sistemático de dos bases de datos de trayectorias vehiculares de secciones de autopista. La primera contiene trayectorias reales, mientras que la segunda trayectorias obtenidas de microsimulación. Sobre ellas se crearon escenarios hipotéticos en cuanto a cantidad y composición de datos a enviar por los vehículos, dado que un mismo número total de datos puede obtenerse de distintas formas. Esto se realizó a través de la definición de valores de variables de importancia relacionadas con el envío de datos: la penetración de sensores móviles en el flujo vehicular, la frecuencia con que cada uno de ellos envía un dato, y la anonimidad del dato enviado. Cada combinación de estos valores definió un escenario en particular. Para cada escenario, la estimación de estados de tráfico se realizó a través de dos métodos simples y uno más avanzado al incorporar teoría de tráfico vehicular. En cuanto a los resultados obtenidos, destacan los siguientes: i) la formulación propuesta para cuantificar la cantidad de datos a recibir entrega errores relativos menores al 6%, ii) para los métodos evaluados, escenarios en los cuales se preserva la anonimidad de los datos no presentan desventajas en la estimación de estados de tráfico comparados con aquellos que no preservan la privacidad, iii) se estimó una expresión del error en la estimación en función de las características de cada escenario, y iv) se determinaron los escenarios en los cuales un aumento en la penetración a fin de aumentar el número total de datos, y mejorar así la estimación de estados de tráfico, es más conveniente que un aumento en la frecuencia de muestreo (y vice-versa). Estos resultados permiten entender de mejor manera la relación que existe entre los datos recolectados de sensores móviles y la estimación de estados de tráfico, entregando en definitiva políticas de uso de estos sensores relacionadas a la privacidad de usuarios y calidad de la estimación.
uc
Modelación del proceso de elección de universidad
El objetivo general de esta tesis es estudiar los principales elementos en que se basa la elección de universidad en Chile y cuáles son las características individuales que determinan cómo varían las preferencias a lo largo de la población. Se cuenta con información disponible sobre la jerarquización realizada por los egresados de la educación secundaria al momento de postular al sistema universitario; esta se utiliza para construir un banco de datos que contiene, además, sus características socioeconómicas, y datos descriptivos de las universidades (Años de Acreditación, Ranking Qué Pasa y Localización) y de las carreras (Arancel, Promedio PSU y Duración). Con este banco de datos, se estimó un modelo Logit Jerárquico que permite considerar la estructura de correlación existente entre distintos grupos de universidades. También se estimó modelos Logit de Clases Latentes, con el objetivo de capturar la heterogeneidad existente entre los individuos de la muestra e identificar grupos con patrones de comportamiento similares. El mejor modelo estimado (presenta mejores indicadores en la estimación y se ajusta de mejor manera a la base de datos de validación) tiene tres clases latentes que están asociadas a: (i) individuos de ingreso alto, (ii) individuos de ingreso bajo/medio de alto rendimiento académico, y (iii) individuos de ingreso bajo/medio de bajo rendimiento académico. Se encuentra que las personas eligen de forma racional, aumentando la probabilidad de escoger una universidad si disminuye su costo o aumenta su calidad, y prefiriendo – ceteris paribus – instituciones localizadas en la misma provincia que sus hogares. También se confirma la existencia de categorías de universidades (en cuanto a la percepción individual de su nivel de complejidad/calidad) en que algunas son claramente preferidas sobre otras.El objetivo general de esta tesis es estudiar los principales elementos en que se basa la elección de universidad en Chile y cuáles son las características individuales que determinan cómo varían las preferencias a lo largo de la población. Se cuenta con información disponible sobre la jerarquización realizada por los egresados de la educación secundaria al momento de postular al sistema universitario; esta se utiliza para construir un banco de datos que contiene, además, sus características socioeconómicas, y datos descriptivos de las universidades (Años de Acreditación, Ranking Qué Pasa y Localización) y de las carreras (Arancel, Promedio PSU y Duración). Con este banco de datos, se estimó un modelo Logit Jerárquico que permite considerar la estructura de correlación existente entre distintos grupos de universidades. También se estimó modelos Logit de Clases Latentes, con el objetivo de capturar la heterogeneidad existente entre los individuos de la muestra e identificar grupos con patrones de comportamiento similares. El mejor modelo estimado (presenta mejores indicadores en la estimación y se ajusta de mejor manera a la base de datos de validación) tiene tres clases latentes que están asociadas a: (i) individuos de ingreso alto, (ii) individuos de ingreso bajo/medio de alto rendimiento académico, y (iii) individuos de ingreso bajo/medio de bajo rendimiento académico. Se encuentra que las personas eligen de forma racional, aumentando la probabilidad de escoger una universidad si disminuye su costo o aumenta su calidad, y prefiriendo – ceteris paribus – instituciones localizadas en la misma provincia que sus hogares. También se confirma la existencia de categorías de universidades (en cuanto a la percepción individual de su nivel de complejidad/calidad) en que algunas son claramente preferidas sobre otras.El objetivo general de esta tesis es estudiar los principales elementos en que se basa la elección de universidad en Chile y cuáles son las características individuales que determinan cómo varían las preferencias a lo largo de la población. Se cuenta con información disponible sobre la jerarquización realizada por los egresados de la educación secundaria al momento de postular al sistema universitario; esta se utiliza para construir un banco de datos que contiene, además, sus características socioeconómicas, y datos descriptivos de las universidades (Años de Acreditación, Ranking Qué Pasa y Localización) y de las carreras (Arancel, Promedio PSU y Duración). Con este banco de datos, se estimó un modelo Logit Jerárquico que permite considerar la estructura de correlación existente entre distintos grupos de universidades. También se estimó modelos Logit de Clases Latentes, con el objetivo de capturar la heterogeneidad existente entre los individuos de la muestra e identificar grupos con patrones de comportamiento similares. El mejor modelo estimado (presenta mejores indicadores en la estimación y se ajusta de mejor manera a la base de datos de validación) tiene tres clases latentes que están asociadas a: (i) individuos de ingreso alto, (ii) individuos de ingreso bajo/medio de alto rendimiento académico, y (iii) individuos de ingreso bajo/medio de bajo rendimiento académico. Se encuentra que las personas eligen de forma racional, aumentando la probabilidad de escoger una universidad si disminuye su costo o aumenta su calidad, y prefiriendo – ceteris paribus – instituciones localizadas en la misma provincia que sus hogares. También se confirma la existencia de categorías de universidades (en cuanto a la percepción individual de su nivel de complejidad/calidad) en que algunas son claramente preferidas sobre otras.
uc
Reconnection with the ideal tree : a new approach to real-time search
En esta tesis se presenta FRIT, un algoritmo simple que resuelve problemas de búsqueda determinística para un agente, en ambientes parcialmente conocidos bajo restricciones de tiempo estrictas. A diferencia de otros algoritmos de búsqueda heurística en tiempo real (BHTR), FRIT no busca el objetivo: busca un camino que conecte el estado actual con un árbol ideal T . El árbol tiene su raíz en el objetivo y se construye usando la heurística h. Si el agente observa que un arco en el árbol no existe en el ambiente real, lo saca de T y realiza una búsqueda de reconexión para encontrar un camino que lleve a cualquier estado en T . La búsqueda de reconexión se lleva a cabo por medio de otro algoritmo. Así, FRIT puede aplicarse sobre muchos algoritmos de búsqueda y si se trata de un algoritmo para BHTR, el algoritmo resultante puede serlo también. Por otro lado, mostramos que FRIT también puede usar un algoritmo de búsqueda ciega, resultando en un algoritmo que puede ser aceptable para aplicaciones con restricciones de tiempo estrictas (como videojuegos) y que incluso puede ser preferible a un algoritmo de BHTR. Evaluamos el algoritmo en problemas estándares de búsqueda en grillas, incluyendo mapas de videojuegos y laberintos. Los resultados muestran que FRIT usado con RTAA*—un algoritmo de BHTR típico—es significativamente mejor que RTAA*, con mejoras de hasta un orden de magnitud bajo restricciones de tiempo estrictas. Además, FRIT(daRTAA*) supera a daRTAA*—el estado del arte en BHTR—y en promedio obtiene soluciones un 50% menos costosas usando el mismo tiempo total. Finalmente, FRIT usando búsqueda en amplitud obtiene soluciones de muy buena calidad y puede ser ideal para aplicaciones de videojuegos.
uc
A robotics simulator for python
La modelación y simulación de sistemas robóticos es esencial para efectos del diseño y programación de robots, así como para el entrenamiento de operadores. De las herramientas desarrolladas a lo largo de los años, algunas han alcanzado niveles razonables de madurez pero son específicas a robots manipuladores y no incluyen herramientas apropiadas para modelar bases móviles, mientras que otras se centran en bases móviles en espacios planos en 2D pero que no consideran entornos 3D. Otras herramientas pueden integrar modelos ya construidos para simular manipuladores móviles complejos o incluso humanoides pero tienen empinadas curvas de aprendizaje y requieren tiempo y habilidades significativas de programación. La situación es aún más complicada debido a la falta de estándares de simulación y lenguajes ampliamente aceptados entre los desarrolladores de robots, quienes a menudo implementan simulaciones personalizadas específicas a una cierta aplicación u otros aspectos particulares como, por ejemplo, la planificación de movimiento y navegación de robots, diseño y evaluación mecánica, entrenamiento, etc. Sin embargo, la aplicación de robots a tareas cada vez más complejas requiere de herramientas de simulación precisas –pero simples de usar–, modulares y estandarizadas, capaces de describir cosas como la interacción del robot con el entorno (e.g. interacciones efector-objeto, robot-terreno y sensor-entorno). En este trabajo se describe el diseño de una herramienta de este tipo para la simulación físicamente precisa de robots y sistemas multicuerpo. El software, implementado en Python sobre librerías muy respetadas de física y visualización, es de código abierto, modular, fácil de aprender y usar, y puede ser una herramienta valiosa en el proceso de diseño de robots, en el desarrollo de algoritmos de control y razonamiento, así como en docencia y otras actividades educacionales.
uc
Comportamiento sísmico de muros esbeltos de hormigón armado
El comportamiento de los edificios habitacionales Chilenos de hormigón armado durante el terremoto del Maule 2010 (Mw=8.8) fue bastante bueno, sin embargo, se observaron daños frágiles. Los daños más comunes observados en los muros fue el aplastamiento del hormigón en compresión, el pandeo y fractura de la armadura vertical y la apertura de la armadura horizontal. El primer objetivo de esta tesis es reproducir los daños observados en los muros dañados durante el terremoto de 2010. El segundo objetivo de esta tesis es identificar cómo cambia el desempeño sísmico de muros esbeltos sometidos a flexocompresión. Con el fin de cumplir estos objetivos en este trabajo se ensayaron seis muros esbeltos de hormigón armado en escala 1:2. Los muros fueron ensayados con una carga axial constante de 0.15f′ cAg y sometidos a una carga lateral cíclica de desplazamiento controlado. Los muros ensayados en esta tesis corresponden a un muro delgado, un muro corto, un muro con armadura distribuida, un muro con detallamiento en el doblez de la armadura horizontal, un muro con armadura de confinamiento y un muro confinado con trabas. Además el comportamiento de estos muros son comparados con los resultados de un muro referencial ensayado por C. Alarcón. Los muros fallaron en flexo-compresión y el daño fue similar al observado en los muros dañados durante el terremoto del Maule. Se concluye que un doblez en 135◦ de la armadura horizontal no mejora el desempeño sísmico de los muros. Una reducción de 25% del espesor reduce la ductilidad y la energía disipada del muro. El confinamiento de borde con estribos entre el nivel de la armadura horizontal es altamente recomendable para prevenir un pandeo de la armadura vertical, degradación de rigidez y falla frágil. La rigidez efectiva de los muros para el primer ciclo de carga se puede estimar con un valor entre 0.26 − 0.39EcIg.
uc
Análisis de formación y propagación de congestión en autopistas urbanas caso de estudio : Autopista Central
Hay pocos estudios que analicen las características del flujo vehicular en autopistas urbanas en Latinoamérica. Este trabajo pretende ser un primer paso en esa dirección. Se analiza en detalle el tráfico vehicular durante la punta mañana en la Autopista Central en Santiago de Chile donde se observa congestión diaria recurrente. Se analiza el lugar e impacto de la activación de cuellos de botella, caídas de capacidad y velocidad con que se propagan las colas. Esta información es de gran valor para estudios que busquen aumentar la capacidad o evaluar el impacto de distintas intervenciones. Se encontraron dos cuellos de botella: uno generado por una cola que crece por una rampa de salida y otro aguas arriba por la interacción entre los vehículos que entran por una rampa y aquellos que circulan por la autopista. La cola de la rampa de salida se expande por la 1° pista y produce que el flujo de descarga caiga un promedio total de 4,3% cuando esta cola se vuelca hacia un régimen FIFO en las tres pistas de la autopista. Esto hace crecer la primera cola que llega al lugar del segundo cuello de botella, es decir, se forma una sola gran cola donde la descarga está restringida por el cuello de botella de la rampa de salida. La nueva caída total promedio en la ubicación del segundo cuello de botella es en promedio de 13,8%. El segundo cuello de botella se activa previamente con una caída promedio para los tres días de 8,4%. El nuevo estado conjunto hace crecer el final de lo que era la segunda cola en más de 1 [km] extra. Así, se recomienda estudiar más en detalle la zona de la rampa de salida para evitar el crecimiento de la primera cola con la consecuente restricción de capacidad aguas arriba. Se propone un diagrama fundamental con una velocidad de onda de choque estimada en 22,84 [km/h] que es 27,9% de la velocidad a flujo libre estimada. Se observa que ante avisos de accidentes por mensajería variable los usuarios tienden a aumentar la separación entre ellos.Hay pocos estudios que analicen las características del flujo vehicular en autopistas urbanas en Latinoamérica. Este trabajo pretende ser un primer paso en esa dirección. Se analiza en detalle el tráfico vehicular durante la punta mañana en la Autopista Central en Santiago de Chile donde se observa congestión diaria recurrente. Se analiza el lugar e impacto de la activación de cuellos de botella, caídas de capacidad y velocidad con que se propagan las colas. Esta información es de gran valor para estudios que busquen aumentar la capacidad o evaluar el impacto de distintas intervenciones. Se encontraron dos cuellos de botella: uno generado por una cola que crece por una rampa de salida y otro aguas arriba por la interacción entre los vehículos que entran por una rampa y aquellos que circulan por la autopista. La cola de la rampa de salida se expande por la 1° pista y produce que el flujo de descarga caiga un promedio total de 4,3% cuando esta cola se vuelca hacia un régimen FIFO en las tres pistas de la autopista. Esto hace crecer la primera cola que llega al lugar del segundo cuello de botella, es decir, se forma una sola gran cola donde la descarga está restringida por el cuello de botella de la rampa de salida. La nueva caída total promedio en la ubicación del segundo cuello de botella es en promedio de 13,8%. El segundo cuello de botella se activa previamente con una caída promedio para los tres días de 8,4%. El nuevo estado conjunto hace crecer el final de lo que era la segunda cola en más de 1 [km] extra. Así, se recomienda estudiar más en detalle la zona de la rampa de salida para evitar el crecimiento de la primera cola con la consecuente restricción de capacidad aguas arriba. Se propone un diagrama fundamental con una velocidad de onda de choque estimada en 22,84 [km/h] que es 27,9% de la velocidad a flujo libre estimada. Se observa que ante avisos de accidentes por mensajería variable los usuarios tienden a aumentar la separación entre ellos.Hay pocos estudios que analicen las características del flujo vehicular en autopistas urbanas en Latinoamérica. Este trabajo pretende ser un primer paso en esa dirección. Se analiza en detalle el tráfico vehicular durante la punta mañana en la Autopista Central en Santiago de Chile donde se observa congestión diaria recurrente. Se analiza el lugar e impacto de la activación de cuellos de botella, caídas de capacidad y velocidad con que se propagan las colas. Esta información es de gran valor para estudios que busquen aumentar la capacidad o evaluar el impacto de distintas intervenciones. Se encontraron dos cuellos de botella: uno generado por una cola que crece por una rampa de salida y otro aguas arriba por la interacción entre los vehículos que entran por una rampa y aquellos que circulan por la autopista. La cola de la rampa de salida se expande por la 1° pista y produce que el flujo de descarga caiga un promedio total de 4,3% cuando esta cola se vuelca hacia un régimen FIFO en las tres pistas de la autopista. Esto hace crecer la primera cola que llega al lugar del segundo cuello de botella, es decir, se forma una sola gran cola donde la descarga está restringida por el cuello de botella de la rampa de salida. La nueva caída total promedio en la ubicación del segundo cuello de botella es en promedio de 13,8%. El segundo cuello de botella se activa previamente con una caída promedio para los tres días de 8,4%. El nuevo estado conjunto hace crecer el final de lo que era la segunda cola en más de 1 [km] extra. Así, se recomienda estudiar más en detalle la zona de la rampa de salida para evitar el crecimiento de la primera cola con la consecuente restricción de capacidad aguas arriba. Se propone un diagrama fundamental con una velocidad de onda de choque estimada en 22,84 [km/h] que es 27,9% de la velocidad a flujo libre estimada. Se observa que ante avisos de accidentes por mensajería variable los usuarios tienden a aumentar la separación entre ellos.
uc
Importancia de los atributos de vivienda y barrio en localización residencial : una aplicación del método best-worst al centro de Santiago
En el marco de estudiar la valoración de atributos de vivienda y barrio en el centro de Santiago, por parte de los usuarios, se estimó modelos de elección discreta utilizando encuestas del tipo Best-Worst Scaling (Caso 2) en conjunto con una más clásica de elección discreta (ED). Se estudió además la significancia de incluir heterogeneidad mediante variaciones sistemáticas de los gustos y, además, tratando correctamente el efecto panel mediante componentes de error. De acuerdo a la literatura estudiada, esto no se había aplicado anteriormente. Nuestra base de datos corresponde a individuos que planeaban arrendar un departamento en la comuna de Santiago centro. Adicionalmente, se dispone de una muestra de validación que proviene de un experimento de preferencias declaradas realizado en este mismo contexto (Torres 2009). El modelo elegido incluyó ambos tipos de heterogeneidad y se estimó uniendo las respuestas del tipo Best con ED. De los ocho atributos presentados en la encuesta, se pudo considerar siete comunes entre estas respuestas, pero el atributo Dividendo departamento debió considerarse específico. Con este modelo, se pudo ver la diferencia entre el impacto que tiene un atributo en sí en la función de utilidad, y el impacto que tiene la variación en sus niveles mostrados a los encustados. El atributo más interesante fue el Dividendo departamento, con un impacto intrínseco bajo en la función de utilidad, pero debido a la variación de sus niveles alcanzaba el impacto mayor. Además, se estimó las disposiciones al pago por cada atributo, concluyendo que los más relevantes eran el Acceso al Metro, Mantención y estado de conservación de la calle, y Tamaño de los Dormitorios. Los atributos menos relevantes fueron Servicios culturales y Gimnasio y piscina en el edificio.
uc
Caracterización geoquímica del humedal de Batuco : distribución de metales en perfiles de sedimentos
El humedal periurbano de Batuco tiene un gran valor ambiental por su riqueza biológica y ubicación en las cercanías de la ciudad de Santiago, unas de las áreas más densamente pobladas e intervenidas de Chile. En la última década, el humedal de Batuco ha despertado interés público y científico por episodios de mortandad de aves y de peces debido a modificación de cauces y fluctuaciones sustanciales en sus niveles de agua por actividades humanas, y también por la resiliencia1 que ha demostrado tener frente a dichas presiones. Esta tesis investiga aspectos geoquímicos claves que pueden explicar en parte esta resiliencia, enfocándose en la caracterización de los sedimentos del humedal y su relación con los procesos biogeoquímicos observados en la columna de agua. Para cumplir este propósito: (i) se sintetiza críticamente la información biogeoquímica, hidrológica, e hidrogeológica disponible; (ii) se seleccionan tres estaciones de monitoreo, cuya columna de agua y perfil de sedimentos fueron muestreados en primavera, verano, otoño e invierno; (iii) se emplean técnicas tradicionales y avanzadas para caracterizar las matrices acuáticas y sólidas recolectadas; (iv) se emplea prueba de hipótesis, análisis de componentes principales y clasificación jerárquica ascendente para analizar la variación espacio-temporal de la composición de los sedimentos, y (v) se discute y propone una relación con otras variables y procesos biogeoquímicos que ocurren en este sistema a través del uso de la modelación geoquímica de día y de noche. La elevada resiliencia de este humedal estaría determinada por sedimentos caracterizados por una matriz arcillosa con presencia de carbonatos que le otorgan un carácter alcalino y un poder tamponante hacia descargas que involucren adiciones ácidas. El pH del sistema favorece la precipitación de hidróxidos y carbonatos que mantienen en niveles bajos o no detectables la concentración de metales tales como Cu, Cr, Ni, As. Asimismo, el sistema favorece la formación de fases particuladas de oxihidróxidos de hierro (~30 -60 g*Kg-1 ) y manganeso (~0,6 -2 g*Kg-1). Estas fases tienen una alta capacidad sorbente, manteniendo en un nivel bajo la concentración de metales disueltos en la columna de agua, y enriqueciendo los sedimentos con estos oxihidróxidos y sus especies sorbidas. Dadas las condiciones hipereutróficas de este sistema, se puede esperar la ocurrencia de condiciones reductoras y de bajas de pH nocturno que disuelvan los oxihidróxidos y liberen los iones asociados, aumentando así la toxicidad en la columna de agua. Sin embargo, el humedal de Batuco tiene una alta capacidad tamponante respecto de la concentración de metales y es rico en fases arcillosas que tienen una afinidad importante hacia esos iones, que evitarían una liberación detectable hacia la columna de agua, manteniéndolos en el sedimento. Lo señalado aquí se mantendrá toda vez que el humedal mantenga su condición de cero descarga de residuos líquidos. Los efectos no controlados de una condición de trofía como la descrita arriba podría revestir cierta peligrosidad en sistemas donde convivan ecosistemas acuáticos con descargas de riles con alto contenido de metales, tales como cauces lénticos o tranques de relave. En estos sistemas en particular debieran monitorearse al menos el pH y las condiciones redox de día como de noche y modelar episodios críticos como los predichos en este trabajo, para prevenir que en estos ecosistemas acuáticos se generen condiciones biogeoquímicas que favorezcan la biodisponibilidad de especies tóxicas. Finalmente, es relevante que se tomen medidas de conservación pertinentes para evitar que el humedal de Batuco se seque durante los meses de primavera y verano, y que se alteren las características que le otorgan una cierta resiliencia, de modo de evitar su acelerada transformación en un pantano. Esta tesis busca ser un aporte más al conocimiento sobre el funcionamiento de los humedales en Chile. Esta información será relevante como herramienta de análisis para prevenir eventos de contaminación y mejorará los criterios técnicos para la toma de decisiones, sobretodo en temas de generación de políticas públicas y de gestión de los recursos hídricos del país.
uc
Entre "pouvoir" et "devoir" : dynamiques internes et construction sociale d'une famille de l'elite chilienne : le cas des Errázuriz Urmeneta, 1856-1930.
Entre 1860 et 1930, le Chili est dominé par une élite hégémonique au niveau politique, économique, social et symbolique. Une des familles parmi les plus importantes de cette élite est celle des Errázuriz, qui arrive du pays basque espagnol aux environ de 1735 et s’intègre très rapidement à l’élite coloniale. La génération qui est l’objet de notre étude, celle des Errázuriz Urmeneta, est composée de trois frères et une soeur dont la vie s’étale entre 1856 et 1930, chacun avec sa propre famille nucléaire (enfants et petits-enfants), regroupant un ensemble de presque cent individus. L’objectif de cette thèse est d’analyser cette famille au point de vue de ses dynamiques internes, en particulier en fonction des concepts de « devoir » et de « pouvoir ». On considérera donc leur éducation, mode de vie quotidienne, instances de sociabilité et spiritualité religieuse et artistique, afin de rendre compte du mode de construction de leur représentation, qui justifie le rôle dominant qu’elle occupe dans la société qui est la sienne. Il faudra aussi prendre en compte son intégration dans un espace euro-américain qui voit une augmentation des transferts culturels entre ses deux pôles, chacun générant un discours sur l’autre. Dans cette optique, le rapport de domination en faveur de ce groupe social auquel appartiennent les Errázuriz au Chili s’inverse en Europe, où il souffre l’ostracisme de l’aristocratie à laquelle il aspire s’intégrer.
uc
Integrated thermal and lighting analysis of spaces with controled complex fenestration systems and artificial lighting during the design stage
Estudios prueban que los sistemas de protección solar son beneficiosos tanto para las condiciones de confort como para el desempeño energético del edificio. Sin embargo, dichos dispositivos se consideran Sistemas Complejos de Fenestración (SCF), los cuales presentan características ópticas muy difíciles de modelar en software de simulación tanto lumínica como térmica. Utilizando una propiedad llamada Función Bidireccional de Distribución de Dispersión (BSDF, por sus siglas en inglés), herramientas de simulación han sido provistos de módulos que les permiten modelar dichos sistemas más correctamente, considerando las complejidades ópticas de los mismos. Debido que los SCF se instalan para proveer un ambiente confortable tanto en lo visual como en lo térmico, realizar simulaciones integrales de ambos dominios resulta fundamental. Además, debido a que los ocupantes y/o sistemas automáticos manejarán cortinas y persianas y controlarán las luminarias, se deduce que la simulación no sólo debe ser integral, sino que además debe incluir control. El propósito de esta tesis es dar los primeros pasos hacia una herramienta que permita realizar dichos análisis para espacios con iluminación artificial y SCF controlados.Así, durante el proceso de revisión bibliográfica se concluyó que la obtención de BSDF solares de los sistemas a evaluar, y la realización de una simulación integrada de los dominios térmico y lumínico eran fundamentales para realizar análisis holísticos y requerían simplificación. Este trabajo muestra, comparado resultados con soluciones analíticas, que la herramienta genBSDF es capaz de evaluar las BSDF solares de SCFs. Además, explica el desarrollo de un nuevo programa, mkSchedule, que facilita la integración de software térmicos y lumínicos, y propone una metodología que permite evaluar integralmente un edificio durante el proceso de diseño, permitiendo modificar el edificio mismo, los SCFs, luminarias y algoritmos de control. Tanto mkSchedule como la nueva metodología son probados con un estudio de caso simple.
uc
Tempo y modo de la radiación de roedores neotropicales sigmodontinos.
La subfamilia de roedores Sigmodontinae (Rodentia, Cricetidae) con cerca de 400 especies reconocidas, es uno de los grupos de mamíferos neotropicales más diverso y ampliamente distribuido. El contexto ecológico parece esencial para entender la evolución de este grupo. Estos roedores han proliferado abundantemente ocupando una gran variedad de hábitats y estilos de vida. Para entender el escenario histórico en el cual floreció este grupo, mediante el análisis de secuencias de ADN se estimaron los tiempos de divergencia de los principales linajes y del ancestro común más reciente de Sigmodontinae empleando relojes moleculares. Se estimó un origen de Sigmodontinae en el Mioceno medio (cerca de 12 en el pasado), mientras que la mayoría de las tribus habrían diversificado durante el Mioceno tardío. Estos resultados junto a la reconstrucción de áreas ancestrales han facilitado entender la evolución de Sigmodontinae.Este grupo se habría originado en la región del Caribe y luego de su entrada en Sudamérica diversificó profusamente. La “oportunidad ecológica” (i.e. abundancia de recursos accesibles) es usualmente considerada como desencadenante del acúmulo de riqueza de especies excepcional en algunos taxa. Se evaluó su influencia en la diversificación de los sigmodontinos examinando la asociación entre el hábitat ocupado y las tasas de especiación inferidas en distintos linajes. Se detectaron varios cambios de tasa de diversificación en varios linajes (ej. dentro de Akodontini). Los resultados sugieren una correlación hábitat ocupado y las tasas de especiación. En un marco más general, se considera que eventos o condiciones locales pueden haber facilitado el acceso a recursos para estos roedores y cómo esto puede haber influido en la proliferación -o falta de ésta- en algunos grupos dentro de la Subfamilia. Se realizó una breve revisión de aquellos mecanismos explicativos de patrones de riqueza de especies que serían útiles para entender la diversidad sigmodontina. Explicaciones como la influencia del “determinismo local” o la “zona ecológica de origen” parecen marcos promisorios para entender la radiación de este grupo. A modo de conclusión, la aparición de nuevos hábitats, sumado a cambios geológicos y en vegetación durante el Mioceno/Plioceno habrían promovido la diversificación de Sigmodontinae.
uc
Seismic microzoning of Arica and Iquique, Chile
La subducción entre las placas de Nazca y Sudamericana sitúa a Chile como uno de los países conmayor actividad sísmica del mundo. El acoplamiento sismogénico y el gap sísmico de 136 años anunciaban el inminente movimiento sísmico que podría afectar al norte del país. De este escenario nace la necesidad de evaluar zonas de las ciudades del extremo norte donde el movimiento se podría ver más o menos amplificado según las condiciones locales del suelo. Esta investigación se concentra en el análisis geofísico y dinámico de los suelos de fundación de las ciudades de Arica e Iquique. En ambas ciudades, 102 sitios fueron seleccionados para realizar ensayos geofísicos basados en ondas superficiales. De la inversión de registros de vibraciones ambientales se derivó el perfil de velocidad de onda S y la frecuencia predominante de cada sitio. Adicionalmente, siete sondajes fueron ejecutados para complementar los datos adquiridos. Combinando los datos disponibles se generó una microzonificación sísmica para cada ciudad. Los resultados demuestran la consistencia de este tipo de ensayo geofísico con la geología superficial. La información determina que las zonas más propensas a efectos de amplificación sísmica son el norte de Arica, el sureste de Iquique, el límite norte de Iquique (en la zona ZOFRI), y el relleno artificial del puerto de Iquique.Adicionalmente, se seleccionó una zona de estudio al norte de Arica para construir un modelo 3D de propagación de ondas. Las propiedades del modelo fueron derivadas de la interpolación de los perfiles de velocidad S en conjunto con la técnica de Nakamura para obtener la profundidad al basamento en los puntos de control. Con esta información se simuló el movimiento del suelo por medio del método de elementos espectrales. La simulación de una onda tipo Ricker muestra que el modelo tridimensional es capaz de evaluar la variabilidad espacial de las propiedades del suelo, la profundidad de la roca y la topografía. Los resultados se comparan con la metodología 1D tradicional.
uc
Estimulación de la producción oral de sintaxis compleja en relación con la comprensión lectora de adolescentes.
Este estudio explora el vínculo entre oralidad y comprensión de lectura en adolescentes, mediante la estimulación de la producción oral de textos expositivos utilizando un plan específico de intervención pedagógica. Esta compleja tipología textual tiene una alta demanda en el uso de recursos cognitivos y sintácticos. Se considera que la sintaxis compleja es una habilidad subyacente de la producción lingüística y de la comprensión en el discurso oral y en la modalidad escrita. Se reportan diferencias entre la producción oral de discurso expositivo con presencia de sintaxis compleja en un grupo que ha recibido instrucción explícita en esta área, y un grupo que no. También existen diferencias en el desempeño en comprensión lectora, sin que ninguno de los grupos haya recibido instrucción explícita en esta área específica.
uc
Simulación on-line para el despacho de camiones mineros en operaciones a cielo abierto
Hoy en día, gracias a los avances tecnológicos en computación que permiten la solución de problemas complejos en tiempos razonables, surge la posibilidad de incorporar sofisticadas técnicas de investigación operativa para la resolución de estas interrogantes en tiempo real, dando lugar al uso de simulación on-line, una herramienta poderosa que permite tomar decisiones basadas en indicadores de desempeño globales del sistema considerando la aleatoriedad presente en los procesos que lo conforman. Este trabajo se desarrolla en el contexto de la toma de decisiones para despacho de camiones en minería a cielo abierto, donde cada vez que un camión realiza una descarga de material se debe responder a la pregunta: ¿adónde debe ir este camión ahora? Aunque existen diversas metodologías descritas en la literatura para enfrentar este problema, éstas no son capaces de estimar el impacto de la presente decisión en las decisiones futuras, o no logran la precisión suficiente en las estimaciones a causa de la simplicidad de los métodos.En este trabajo se proponen tres metodologías para el despacho de camiones basadas en simulación on-line. La primera considera la evaluación de múltiples soluciones generadas aleatoriamente; la segunda corresponde a la técnica SRDM, expuesta por Dalal, Groel y Prieditis (2003); la tercera es una combinación de ambos métodos. Para comprobar la eficiencia de las metodologías propuestas se desarrolla un estudio de simulación, donde los resultados se miden en función de la desviación de: la ley de mineral a chancado y la razón estéril-mineral en relación a un valor objetivo, además de la tasa de alimentación a chancado alcanzado al utilizar cada método. En base a estas medidas de desempeño se demuestra la mayor precisión en la toma de decisiones lograda por los métodos basados en simulación on-line, que presentan la menor desviación en términos de los objetivos operacionales y una alimentación a chancador que supera hasta en un 11% a las metodologías más utilizadas en la industria minera.
uc
Comportamiento inelástico-frágil de edificios de muros durante el terremoto de Chile, 2010
El terremoto del año 2010 en Chile causó daños en un 2% aproximadamente de los edificios de muros de hormigón armado del país. En la mayor parte de los muros dañados por el terremoto, ocurrió el fenómeno de aplastamiento del hormigón por flexocompresión, mostrando un comportamiento frágil, con gran pérdida de hormigón y pandeo de barras longitudinales. El objetivo de esta investigación es reproducir el daño observado en un edificio específico elegido para su estudio utilizando el software especializado DIANA. Para ello se realiza un modelo 2D de elementos finitos de los planos resistentes dañados, en los cuales se utiliza un modelo constitutivo no-lineal para el hormigón armado. Primero, se realiza un análisis de sensibilidad de los modelos constitutivos de hormigón disponibles en el software y una validación comparando los resultados experimentales obtenidos de un ensayo de un muro de hormigón armado (Alarcón, 2013), con aquellos obtenidos de un modelo analítico y numérico de dicho muro. Segundo, se estudia el edificio elegido y se describe de la forma más completa posible, calculando indicadores comunes a los edificios dañados en Chile, representativos de su comportamiento.Entre otros factores, se observa un bajo espesor de muros, manteniendo una densidad de muros promedio del 3% en cada dirección y una tendencia en el tiempo de aumento de cargas y tensiones axiales. Para el análisis del daño se realizó primero un análisis de colapso progresivo en el que se analiza un modelo lineal 3D en el software SAP2000, y se elimina cada muro del análisis al detectar su falla en flexocompresión, dado que dicha falla es frágil. Con los resultados de este modelo se determina el patrón de carga lateral del modelo no-lineal 2D. Finalmente, se estudia el daño presente en los muros y se determina el patrón de carga lateral que induce el daño observado.
uc
Sensor de posición basado en codificación serial de n-bits
Esta tesis presenta el desarrollo e implementación de un nuevo sensor de posición óptico basado en un código serial de n bits distribuido perimetralmente a lo largo de un disco. Se entrega una síntesis relativa a los sensores en general, una revisión del estado del arte en los encoders absolutos, sus aplicaciones y la necesidad de producir un sensor óptico de menor tamaño y volumen que el convencional. Así, este trabajo plantea el objetivo de desarrollar un sensor de posición cuya lectura sea perimetral y no radial favoreciendo la optimización de tamaño y con ello la hipótesis sobre la factibilidad de poder codificar la posición empíricamente. El trabajo desarrollado derivó en el establecimiento de condiciones para la generación de código secuencial a inscribir perimetralmente en el disco, como así también en un algoritmo para la producción de secuencias capaces de codificar posición a cualquier resolución deseada.A partir de lo anterior, fue diseñado y construido un sensor de 4 bits para ser instalado en el generador eléctrico de un vehículo híbrido tipo serie, que será utilizado además como motor de partida para el motor de combustión interna. Se presentan las consideraciones mecánicas en diseño y construcción del disco como así también la estructura lectora. Finalmente, este sensor fue probado en un banco de pruebas que involucra un generador de similares características al que se encuentra dentro del vehículo, logrando un desempeño acorde con lo requerido para la aplicación. Los resultados obtenidos con este banco de pruebas validan la hipótesis planteada, por cuanto el sensor es capaz de discriminar todas las posiciones existentes para una resolución dada, y las imprecisiones propias de construcción pueden ser mitigadas con ayuda de filtros digitales.
uc
Evaluación de la efectividad del silicato de etilo como consolidante para rehabilitar albañilería en edificios patrimoniales
La consolidación con silicato de etilo, es una técnica de intervención no invasiva, utilizada actualmente para rehabilitar materiales constructivos (principalmente silíceos) en edificaciones históricas y contemporáneas. Sin embargo, la ausencia de información que relacione la dosis a utilizar con la mejora en las propiedades físicas y mecánicas del material, impide utilizar esta técnica de forma efectiva y eficiente. El objetivo de esta investigación fue evaluar, mediante un protocolo de caracterización, la dosis y efectividad del silicato de etilo como consolidante del ladrillo (sustrato de estudio) mediante distintos métodos de aplicación. Para esto, se fabricaron ladrillos con distintas proporciones de arcilla común y caolín, y se aplicó el consolidante mediante métodos utilizados en el laboratorio (inmersión total a diferentes tiempos) e “in situ” (brocha, rociador con presión y rociador sin presión). Se utilizaron diferentes temperaturas de calcinación para lograr distintos grados de porosidad e interconexión de poros en los ladrillos. Se evaluó las variaciones en las propiedades físicas (porosidad abierta, interconexión y distribución del tamaño de poro), mecánicas (dureza superficial, resistencia a compresión y flexión), color e interacciones químicas antes y después de la consolidación para determinar el desempeño del silicato de etilo.Los resultados indican una estrecha relación entre parámetros como distribución y tamaño de radio de poro con la efectividad de la consolidación. El principal rango de acción del consolidante se encontró entre 0.01 a 0.1 μm. Asimismo, la interacción sustrato-consolidante determinada por el tipo de mineralogía del ladrillo brinda un aporte adicional en el desempeño de la consolidación. Métodos de aplicación “in situ” como la brocha son adecuados para consolidar materiales cerámicos como el ladrillo. Asimismo, la re-impregnación del ladrillo con brocha logró las mayores disminuciones en permeabilidad y aumentos en resistencia mecánica de los métodos evaluados. Finalmente, pocas variaciones cromáticas fueron detectadas en los ladrillos con los métodos de aplicación, lo que valida la aplicación del consolidante en albañilería patrimonial.
uc
Algoritmos genéticos para planificar la secuencia, asignación, tamaño y cantidad de lotes en una planta multi-producto
Planificar la producción es de vital importancia en el mercado altamente competitivo, ya que mejora la eficiencia productiva. Las empresas han aumentado su interés en los softwares de planificación, y así mismo, se ha incentivado la investigación en el área. La producción por lotes es un tipo de manufactura ampliamente estudiado en la literatura. Este es un problema complejo, donde se requiere definir cuántos lotes habrá, su tamaño, qué maquinaria usarán y en qué orden serán producidos. Existen diversas formas de hacer esto, desde heurísticas simples hasta sofisticados métodos de optimización. Uno de estos métodos son los algoritmos genéticos, que basándose en la lógica evolutiva, realizan búsquedas al seleccionar, mutar y cruzar/mezclar soluciones. Estos algoritmos se suelen utilizar para secuenciar lotes, pero no para decidir cuántos lotes habrá, ni tampoco su tamaño; sino que reciben esta información como un dato. Por este motivo, esta tesis busca implementar un algoritmo genético capaz de incorporar estas variables de decisión, obteniendo buenos resultados.Se implementaron tres variantes del algoritmo genético, donde el primero realiza un crossover basado en aristas, el segundo, en la posición de los lotes y el último es una mutación guiada. Ellos se comparan con un algoritmo simulated annealing, una búsqueda totalmente aleatoria y un algoritmo genético modificado que no cuenta con crossover. Los resultados indican que los algoritmos genéticos sí son capaces de resolver la producción por lotes descrita a un bajo costo computacional, al obtener resultados mucho mejores que la búsqueda totalmente aleatoria. El crossover como mutación guiada obtiene los mejores resultados promedio en los 10 escenarios evaluados, cuando se minimiza el tiempo total de producción en búsquedas breves. También fue el mejor en 9 de los mismos 10 escenarios al minimizar la cantidad de pedidos sin cumplir. Además, demuestra tener la convergencia más veloz y solo es vencido por el SA cuando se realizan búsquedas extensas de varias iteraciones.
uc
Evaluación del impacto en el aprendizaje de la instrucción de ortografía, considerando el conocimiento de los alumnos de la materia de estudio
El impacto de la entrega de reportería a profesores en colegios para sesiones breves de repaso no ha sido analizado en detalle para ortografía, una materia que es especialmente compleja en español, producto de las particularidades del lenguaje. Se presenta la investigación de este tipo de intervención, en el que se desarrollaron dos softwares para el repaso de ortografía, uno utilizando Single Display Groupware (SDG), y otro utilizando el modelo 1-1 o individual de aprendizaje. La experimentación realizada se llevó a cabo utilizando el software del modelo 1-1 en un ambiente web, en conjunto con sesiones de repaso presenciales del profesor. Cada grupo de estudio utilizó el software, pero sólo uno de los grupos recibió sesiones de repaso focalizadas, utilizando la información de reportería entregada por la aplicación para reforzar aquellos contenidos que los alumnos poseían más débiles. Una vez finalizada la experimentación se puede observar que las sesiones de repaso presenciales focalizadas pueden contribuir a la nivelación de los alumnos que poseen menor conocimiento del curso, mientras todo el grupo de alumnos avanza a su propio ritmo en el conocimiento que desconoce.
uc
Enfoque OLAP para el descubrimiento interactivo en minería de procesos
Un analista de procesos de negocio debe enfrentarse a la labor de analizar, monitorear y promover mejoras para distintas áreas del negocio. En los últimos años, ha aumentado su potencial de acción gracias al análisis automático de los registros de eventos de los sistemas de información utilizando técnicas de minería de procesos. Estas herramientas permiten descubrir modelos de procesos considerando distintos objetivos, distintas perspectivas (control de flujo, organizacional, temporal, entre otras) y creando distintas representaciones. Sin embargo, actualmente carecen de la posibilidad de explorar de manera conjunta e interactiva las distintas perspectivas, lo cual influye en la comprensión de lo que está sucediendo en la organización. En este artículo se propone una nueva forma de descubrimiento interactiva para analistas de procesos, orientada a explorar distintas perspectivas y considerando distintos niveles de detalle, desde lo general a lo particular.El presente documento plantea el desarrollo de este concepto considerando un enfoque de interacción OLAP, combinando un barrido multidimensional y acciones de navegación como drill down, roll up, slices and dice y pivot. Lo anterior se implementó a través de un plug-in de ProM, y se puso a prueba en un caso de estudio con usuarios reales. Las pruebas realizadas indican que hay mejoras sustantivas en relación al uso de ProM y ligeras mejoras al contraponerlo con Disco, dos de las principales herramientas disponibles actualmente para minería de procesos. La ventaja más relevante es la efectividad alcanzada en cuanto a tiempo al realizar tareas de análisis tanto unidimensionales como multidimensionales. Además, los usuarios expertos le dan una evaluación notoriamente mejor en productividad, efectividad y “es operativo” en relación a las otras dos herramientas. Esta investigación da indicios de que el usuario podría mejorar el análisis de procesos si cuenta con herramientas que le permitan un descubrimiento exploratorio, multidimensional y de navegación interactiva, permitiendo iterar dinámicamente en el análisis del proceso.
uc
Desarrollo de una plataforma experimental para la investigación en algoritmos de reconstrucción tomográfica para MOAO
En este trabajo se explica el diseño y construcción de la mesa óptica BeAGLE (Bench Ao for eaGLE), la cual es una plataforma óptica experimental que permite medir y realizar corrección tomográfica de campo amplio utilizando estrellas artificiales, para simular un sistema MOAO (multi-object adaptive optics). La mesa posee una configuración que recrea las características ópticas del telescopio William Herschel (WHT) de 4.2m e incluye un simulador de atmósfera basado en mecanismos y placas transparentes, el cual permite simular el efecto degradante de la turbulencia atmosférica sobre las imágenes astronómicas. Además, posee una configuración similar al E-ELT (European Extremely Large Telescope) en conjunto a un instrumento MOAO, en cuanto a los espejos deformables. Para realizar el diseño del sistema se utilizó el software de diseño óptico e iluminación Zemax (Radiant Zemax LLC, E.E.U.U.), junto a otras herramientas computacionales que permitieron diseñar y posteriormente construir el hardware adicional requerido. Se realizaron algunas pruebas que permitieron validar el funcionamiento de BeAGLE, sin embargo falta la etapa de calibración (que no es parte de trabajo) para que la mesa esté completamente operacional y corrigiendo.
uc
Effects of electricity dynamic pricing : from time of use to real time pricing
Los precios dinámicos de electricidad se están implementando en el mundo cada vez más, pues permiten una mejor utilización de la infraestructura, que es cada vez más escasa y difícil de construir. Mejorar el moldeamiento de las tarifas dinámicas y entender sus efectos y limitaciones es una necesidad creciente del regulador y también de las empresas. En este trabajo se propone un modelo para cuantificar los efectos de las tarifas dinámicas sobre la curva de carga, los precios en el mercado al por mayor y el uso de la infraestructura. Se evaluaron diferentes tarifas dinámicas, incluyendo una variedad de tarifas por bloques horarios, tarifa de precio crítico y tarifa de tiempo real para obtener los beneficios teóricos de la tarificación flexible. Cada tarifa dinámica mostró los mismos efectos: el consumo de punta y el precio promedio de electricidad disminuyen y el uso agregado de la energía aumenta. Al moverse hacia tarifas más flexibles aumenta estos efectos. Luego, el análisis se expande y se propone una clasificación más funcional de tarifas dinámicas: tarifas periódicas y predecibles (tarifa plana y tarifas por bloques horarios) y tarifas gatilladas por eventos que responden a las condiciones reales de la demanda (tarifa de precio crítico y tarifa de tiempo real). Por último, se discute los beneficios reales de las tarifas gatilladas por eventos críticos, por sobre las tarifas periódicas.
uc
Medición del impacto de la penetración de energías renovables no convencionales intermitentes en los costos del Sistema Interconectado Central
En Chile se ha aprobado recientemente una meta de generación eléctrica con Energías Renovables no Convencionales (ERNC) para el año 2025 de 20% (Congreso Nacional, 2013). Se espera que una fracción importante de los aportes de ERNC se realizarán mediante la incorporación a los sistemas eléctricos nacionales con fuentes intermitentes: Eólica y Solar. En efecto, de 8.663 MW en proyectos que cuentan con aprobación ambiental de ERNC un 45,5% corresponde a generación eólica y un 49,8% a generación solar (Centro de Energías Renovables,CER, 2013). La incorporación de ERNC intermitentes en los sistemas eléctricos produce una serie de beneficios como, por ejemplo, la reducción de los gases de efecto invernadero y contaminantes locales, la utilización de recursos locales, la producción de energía a costo variable cero y la diversificación de la matriz energética, entre otros. Sin embargo, su incorporación a los sistemas eléctricos convencionales no está exenta de desafíos, debido a su característica de intermitencia. En las condiciones del desarrollo tecnológico actual, estas ERNC intermitentes deben coexistir con energías convencionales. En Chile la principal generación eléctrica se concentra en dos grandes Sistemas: el Sistema Interconectado del Norte Grande (SING) y el Sistema Interconectado Central (SIC), con capacidades de 4.600 y 13.585 MW respectivamente, y que dan cuenta de un 98,47% del consumo total de energía del país (Centro de Despacho Económico de Carga Sistema Interconectado Central, CDEC-SIC, 2013a).En esta tesis se analizan los efectos de la incorporación de ERNC intermitentes en el SIC, principal sistema eléctrico de Chile; para ello se modela matemáticamente la incorporación de ERNC intermitentes en un período de 9 años a partir del año 2017 hasta el año 2026, considerando cuatro escenarios de penetración de ERNC total al año 2024: 10 %, 15 %, 20% y 30 %. Los datos de entrada corresponden a aquellos que normalmente se emplean en el país para modelar los sistemas eléctricos. Se agregan además variables independientes necesarias para este trabajo. Los datos de entrada son: planes de obra de generación y transmisión, precios futuros de combustibles, estadística de hidrologías, previsión de demanda, etapas simuladas, y niveles de penetración de ERNC. Se analiza un escenario sensibilizado en el que se instala capacidad hidroeléctrica de gran tamaño (2.390 MW) en la provincia de Aysén entre el año 2022 y el año 2026. La modelación se realizó con el sistema PLEXOS R , que resuelve utilizando algoritmos de optimizacioó y programación dinámica estocástica. Se incorporaron metodologías novedosas para la modelación de centrales térmicas y de fuentes ERNC. Las simulaciones se realizaron en un equipo Pentium Intel i7-4770k 3.50 GHz con 16 GB de memoria RAM y en promedio tardaron un tiempo de 10 horas. Los resultados producto de las simulaciones y analizados en la tesis son: costos marginales, costos del SIC, emisiones de CO2, capacidad de reserva necesaria, factores de planta y ciclos de operación de embalses hidroeléctricos.El costo marginal esperado en los cuatro escenarios de penetración es estadísticamente igual y se encuentra en la vecindad de los 90 US$/MWh. Esto implica que la operación de venta y compra spot de energía no se vería significativamente afectada por una mayor penetración de ERNC intermitente, es decir, los ingresos de todas las unidades del SIC (nuevas o existentes) no disminuirían por el efecto del costo marginal. Respecto a los factores de planta de las unidades térmicas, sólo se mantienen constantes los de nuevas unidades térmicas, mientras que las ya instaladas disminuyen con mayor penetración de ERNC intermitente. Los costos totales (inversión en generación y transmisión más costo de generación) aumentan con una mayor penetración de ERNC intermitente. Se calcula un costo incremental de integración (por sobre el costo de desarrollo) promedio igual a 65,8 US$ por cada MWh de generación ERNC intermitente. Al año 2024, por cada 100 MW de generación eólica adicional instalada, la capacidad de reserva necesaria aumenta en 1,7 MW aproximadamente, mientras que por cada 100 MW de generación solar adicional instalada, la capacidad de reserva necesaria aumenta en 4,0 MW. El aumento de 1% de penetración ERNC produce una disminución promedio de 537.000 Toneladas de emisión CO2 en los 9 años estudiados.En base a los resultados del trabajo se proporcionan las directrices que debería incluir una política pública de generación eléctrica con relación a la incorporación de centrales ERNC intermitentes: una matriz de generación ERNC sustentable y diversificada, y un sistema que transparente e incorpore los costos de la penetración de fuentes de ERNC intermitente de tal manera que las decisiones de inversión estén bien orientadas. Por último, se indica la necesidad de profundizar estos análisis incluyendo otras restricciones que no fue posible incluir, a objeto de afinar con más detalle el efecto de las ERNC intermitentes en el SIC.
uc
Estimación de probabilidades de accidentes basada en estados de tráfico en autopistas urbanas
El año 2012 se reportaron alrededor 19.500 accidentes en las zonas urbanas de la Región Metropolitana, Chile, de los cuales el 16% corresponde a accidentes en autopistas urbanas. Estos accidentes viales ocurren en distintas condiciones o Estados de Tráfico. Por condición o Estado de Tráfico se entiende una combinación única entre flujo, densidad y velocidad que determinan la operación de una vía. La finalidad de esta investigación es determinar la influencia que los Estados de Tráfico en autopistas tienen sobre la ocurrencia y severidad de los accidentes. Por severidad se consideran dos dimensiones: la severidad según daños personales (DP) y la disrupción en el tráfico (DT), usando la cantidad de pistas bloqueadas como proxy para DT. Para este estudio se usó información de accidentes viales, flujos y velocidades instantáneas de circulación en Autopista Central, ubicada en Santiago de Chile, más un conjunto de variables de control relacionadas con la geometría y el clima. Por medio del algoritmo k-means Clustering, se definieron cuatro Estados de Tráfico usando las velocidades recolectadas por espiras magnéticas en la autopista, como una cantidad óptima.Parte de la metodología de trabajo considera la calibración de un modelo de elección discreta logit a partir de datos reales, donde la ocurrencia (o no) de accidentes constituyen las alternativas, utilizando un muestreo de tipo Caso-Control. Los Estados de Tráficos se mostraron ser significativos, afectando la probabilidad de ocurrencia y severidad de los accidentes. Se concluye que los Estados de Tráfico de transición de velocidades desde altas a bajas o viceversa, son los que muestran un mayor riesgo en comparación con estados donde la velocidad se mantiene constante siendo alta o baja. Con estos resultados, es posible la formulación de estrategias de mejor asistencia o prevención de accidentes que los operadores pueden considerar evaluar para su posterior implementación.
uc
Grado de especialización ecológica y filogeografía comparada entre el herbívoro especialista Scurria scurra y sus dos algas hospederos en la costa chilena.
Esta tesis tuvo como primer objetivo evaluar el nivel de especialización de un herbívoro marino, la patela Scurria scurra, en sus dos algas hospederos Lessonia spicata y Durvillea antartica. A partir de una revisión de conceptos y criterios, se evidenció (en el Capitulo Introductorio) que un herbívoro especialista es adecuadamente caracterizado basándose en el grado de ubicuidad y versatilidad ecológica en su uso de recursos. El termino versatilidad ecológica se refiere al rango de recursos utilizados y desempeño particular mostrado por una especie cuando explota estos recursos, en comparación a otras especies. El termino ubicuidad se refiere al rango de hábitats o de plantas utilizadas en el caso de un herbívoro especialista, y las densidades relativas del herbívoro en cada una de estas plantas o hábitats. En el segundo capítulo de esta tesis, se realizó una estimación del grado de ubicuidad y versatilidad ecológica de S. scurra respecto de sus dos algas hospederos L. spicata y D. antartica en Chile Central. Nuestra premisa inicial fue que debido a que un alga hospedero suele ser alimento y refugio para pequeños herbívoros, el mayor tamaño y complejidad estructural de L. spicata ofrecería más espacio para habitar y albergaría mayores densidades de S. scurra y de mayores tamaños que D. antartica. Se evaluó si la prevalencia de S. scurra en L. spicata y D. antartica se correlaciona con la disponibilidad relativa de estos hospederos en ocho sitios. En segundo lugar, se evaluó si la probabilidad de presencia y tamaños de S. scurra se correlacionan con el tamaño y forma de distintas estructuras (principalmente discos y estipes) de L. spicata y D. antartica. Nuestros datos sugieren que la ocurrencia de S. scurra es verdaderamente selectiva respecto de su huésped principal L. spicata, mientras que tiene un uso oportunista de D. antarctica.Concordantemente, la prevalencia de S. scurra en L. spicata osciló entre 0.7 y 1.0, mientras que en D. antartica, la prevalencia de S. scurra aumentó con el aumento de las densidades de D. antartica hacia el Sur.Regresiones logísticas sobre la presencia y el tamaño de S. scurra de acuerdo con el tamaño de diferentes estructuras de sus algas hospederos mostraron que la presencia de S. scurra está más correlacionada con el diámetro de estipes en L. spicata, y con la altura del disco en D. antartica. S. scurra alcanzó una mayor abundancia por alga y mayores tamaños en L. spicata en comparación con D. antartica. Los resultados anteriores sugieren que los rasgos morfológicos y disponibilidad de micro-hábitat en macroalgas posibilitarían alcanzar mayores abundancias en herbívoros especialistas al conferir mayor espacio para refugiarse contra enemigos o condiciones ambientales adversas. Esta tesis tuvo como segundo objetivo general evaluar el grado de concordancia de las estructuras genéticas espaciales y las señales genéticas de cambios demográficos pasados entre S. scurra y el complejo L. nigrescens (Lessonia berteroana y Lessonia spicata) en la costa Chilena (26°S to 42°S). Un primer objetivo consistió en evaluar si la diversidad genética en S. scurra muestra los mismos quiebres filogeográficos mayores verificados previamente en Lessonia para la costa de Chile: específicamente, las discontinuidades genéticas a los 30°S y a los 27°S. En segundo lugar, se investigaron los posibles cambios demográficos experimentados por ambas especies (principalmente S. scurra y L. spicata) debido a la transición Glacial-Interglacial. De hecho, un desplazamiento hacia el Norte de los Vientos de Deriva del Oeste parece haber modificado la intensidad de la surgencia al Sur de 30°S, lo que redujo la productividad primaria durante el Último Máximo Glacial (UMG).Nuestros análisis empleando marcadores AFLP confirmaron la ocurrencia de una discontinuidad genética mayor en la estructuración de las poblaciones de S. scurra consistente con la ruptura biogeografica propuesta a los 30°S.Esta ruptura también fue demostrada anteriormente en otros vertebrados e invertebrados a lo largo del intermareal de Chile y tiene probablemente un origen extrínseco o ambiental (diferentes condiciones oceanográficas a ambos lados de los 30°S). Además, la sub-estructuración de las poblaciones de S. scurraubicadas al norte de 30°S coincidió con el segundo quiebre genético observado en el complejoL. nigrescens con marcadores de ADN mitocondrial alos 27°S.Esta ruptura genética a 27°S es única deL. berteroana y S. scurra. En segundo lugar, de acuerdo a nuestros análisis con el marcador COI (reconstrucción de tamaños efectivos poblacionales en el software Beast, y simulaciones de escenarios en DYABC), el escenario demográfico más probable paraS. scurra es la extinción de sus poblaciones al Sur de los 34°S durante el UMG, seguida de una recolonización postglacial de esta zona desde refugios ubicados más al norte.Para L. spicata, el escenario más probable en virtud de simulaciones en DYABC indica que las poblaciones al Sur de los 34°S también se vieron afectados por algún cambio ambiental mayor durante el UMG y experimentaron una recuperación demográfica post-Glacial desde entonces. Este patrón, no reportado aún para especies que no fueron afectadas por la capa de hielo en América del Sur, es probablemente el resultado de un desplazamiento post-Glacial progresivo hacia el sur de los Vientos de Deriva del Oeste y el restablecimiento asociado del sistema de surgencia costera. Todo lo anterior pone de manifiesto la estrecha interacción con L. spicata y L. berteroana y la alta especialización de S. scurra, la cual no fue capaz de persistir en otros sustratos o algas durante el UMG en el sur de Chile Central. Lo anterior también es coherente con estudios recientes que apoyan la idea que la concordanciaen los patrones filogeográficos y demográficos es más probable entre organismos que mantienen interacciones ecológicas fuertes y específicas.
uc
BZIP transcription factors and transcriptional regulatory networks in the neurospora circadian system
Circadian clocks are endogenous cellular timekeepers that confer daily rhythms to a large number of biological processes. These clocks are present in various organisms across different evolutionary lineages, in which they regulate close to 24-hours rhythms in gene expression, physiology and behavior, enabling individuals to anticipate predictable environmental variations. The ascomycete Neurospora crassa has played a key role in the unveiling of the molecular and genetic basis of these time-telling machineries. In Neurospora, as in other eukaryotes, the integration of a series of cellular and molecular processes gives rise to a robust cell-based pacemaker, capable of coordinating rhythmic control of several aspects of their biology. Although a detailed molecular description of the core oscillator or pacemaker is now possible in model eukaryotes, there is limited information on the mechanisms that allow it to regulate rhythmic processes. Such “output pathways”, the circuits through which the pacemaker endows different processes with rhythmicity, are the least characterized aspect of circadian systems. In Neurospora, a hierarchical arrangement of transcriptional regulators has been proposed as the main mechanism through which the clock regulates rhythmic gene expression.The different actors involved in such time relay, connecting the oscillator with overt rhythms, are however largely unknown. In addition, despite decades as a research model organism, little is known about transcriptional regulatory networks in this fungus and the vast majority of transcription factors in Neurospora remain uncharacterized. In an effort to improve current knowledge of output pathways, the most neglected aspect of circadian biology, in a clock model system and study transcriptional regulatory networks in a model eukaryote, we set out to characterize the bZIP family of transcriptional regulators in Neurospora, in the context of its circadian system. We report a complete revision of the list of sequence-specific DNA-binding proteins in this fungus, which resulted in the identification of several novel ones, including many bZIP proteins. As the few transcription factors that have been associated with output pathways in Neurospora have been shown to exhibit clock input, we evaluated whether the expression of bZIP encoding genes in this organism is under control of the circadian clock. By using a luciferase-based, high-throughput screening system, we identified several bZIP encoding genes whose expression is regulated by the circadian pacemaker. A major limitation in the study of transcriptional regulatory networks in Neurospora, such as those underlying clock regulated transcription, stems from the fact that little is known about the sequence preference of its transcription factors. With the goal of identifying and characterizing transcriptional regulatory networks in which the putative Neurospora transcription factors participate, we employed double-stranded DNA microarrays known as protein-binding microarrays, to determine the sequence preference of Neurospora transcription factors.Such an approach allows for rapid, high-throughput and unbiased characterization of the sequence specificity of DNA-binding proteins. This resulted in the determination of the sequence preference of over half of Neurospora predicted transcription factors, information that together with the various molecular tools available in Neurospora, led to the identification of a rhythmically expressed bZIP transcription factor, ADA-1, as a regulator of output pathways in Neurospora, controlling various output genes. In addition, this information allowed for the evaluation of the role of another bZIP transcription factor, ASL-1, in such pathways. Notably, this is the first report aimed at studying DNA-binding specificities on a global scale in the fungal kingdom outside of the yeast clade, representing a powerful resource for the study of transcriptional regulatory networks in filamentous fungi, the largest group within the fungal kingdom. Indeed, through the use of these data we identified, for the first time, a transcription factor that is required for growth under osmotic stress in Neurospora. Lastly, we report on the identification of a novel process involved in output pathways in Neurospora, namely cell fusion pathways, and we herein show it to be necessary for proper rhythms in a number of genes, including bZIP encoding genes. As a whole, the work reported in this Thesis, represents a major advancement in the study of bZIP proteins and transcriptional regulatory networks in Neurospora.
uc
Involvement of WNT signaling pathway in the adult hippocampal synapses :role in neuroprotection.
Los ligandos Wnt son proteínas de señalización que se expresan en distintas regiones del cerebro, donde funcionan activando la vía de señalización Wnt, que modula los procesos de remodelamiento axonal, dendritogénesis y sinaptogénesis, durante el desarrollo del sistema nervioso. En el cerebro adulto, continúan siendo expresados los ligandos Wnt, así como también, los distintos componentes de la vía señalización, pero aún se desconoce qué función desempeñan en el sistema nervioso maduro. Evidencias recientes sugieren que la vía Wnt funciona en el cerebro adulto, modulando la plasticidad sináptica. Previamente, en nuestro laboratorio se demostró que distintos ligandos Wnt son capaces de regular la transmisión sináptica glutamatérgica y modificar de forma específica la estructura pre y post-sináptica. Además, otros estudios de nuestro laboratorio han mostrado que la activación de la vía Wnt protege frente al daño sináptico ocasionado por el péptido β-amiloide, in vitro. En esta tesis, se estudió in vivo la participación de la vía Wnt en la regulación de la función cognitiva de ratones adultos. Igualmente, se evaluó el efecto benéfico producido por la activación de la vía Wnt en ratones doble transgénico APPswe/PS1dE9, modelo de la enfermedad de Alzheimer. El efecto de la activación de la vía Wnt sobre la función cognitiva de ratones silvestres y transgénicos, se estudió mediante la administración crónica de los moduladores de la vía Wnt: WASP-1 y FOXY-5.Ambos tratamientos produjeron una mejora en la memoria episódica de los animales tanto silvestres como transgénicos, sometidos a distintas pruebas conductuales. El análisis de los registros electrofisiológicos en rebanadas de hipocampo obtenidas de los animales tratados con WASP-1 o FOXY-5, reveló que ambos tratamientos inducen un aumento en la trasmisión sináptica y en la potenciación sináptica a largo plazo, en comparación con el grupo control. Además, WASP-1 previene la pérdida de proteínas sinápticas, reduce la fosforilación de la proteína tau y bloquea la agregación del péptido β-amiloide, en los ratones transgénicos. Todos estos resultados sugieren que la vía Wnt podría regular la plasticidad de los circuitos cerebrales y por lo tanto, mejorar la función cognitiva en ratones adultos. Asimismo, la activación de la vía Wnt podría rescatar la pérdida de memoria observada en los ratones transgénicos y disminuir el daño sináptico ocasionado por el péptido β-amiloide, lo que coloca a esta vía como un prometedor blanco terapéutico para el tratamiento de la enfermedad de Alzheimer.
uc
Homeostatic control of renewable micro-generation power systems :towards a new approach to sustainable energy systems linked to energy efficiency
Este trabajo presenta un enfoque innovador para abordar la coordinación y control de sistemas híbridos de energía conectados a la red eléctrica para suministrar electricidad a un grupo de casas denominado, para el propósito de esta tesis, como block sustentable. La iniciativa se basa en un esfuerzo por integrar las energías renovables no convencionales (ERNC) al sistema de distribución eléctrica a través de proyectos de generación distribuida (GD) destinados a comunidades rurales donde el suministro de electricidad es costoso y muchas veces poco fiable. Esto debido al mal funcionamiento de equipos, fallas de la red o a fenómenos climáticos u otros desastres naturales como terremotos, todo lo cual puede socavar las redes de distribución de energía eléctrica. Aquí empleamos un pensamiento de sistemas y un enfoque cibernético y miramos a estos sistemas híbridos de energía como sistemas adaptativos complejos, intrínsecamente dinámicos, compuestos por varios subsistemas con relaciones jerárquicas bien definidas. Mas aun, la presente aproximación a dichos sistemas los aborda como sistemas sociotécnicos complejos, donde los usuarios de la energía juegan un papel activo y fundamental como 'cargas activas' dentro del block sustentable al que se acopla la microrred.Como tal este tipo de sistema es capaz de autorregulación, coordinación y auto-organización cuando se integra e interactúa con otros sistemas de orden superior, de los cuales los clientes y sus particulares patrones de consumo de energía y hábitos de vida son parte, así como también lo es la red eléctrica local. De esta manera la microrred inteligente en última instancia comprende el sistema híbrido de energía y el block sustentable al cual esta acoplada, funcionando ambos conectados a la red de distribución eléctrica de la cual la microrred es un subsistema. Por lo tanto podemos distinguir aquí un complejo conjunto de relaciones e interacciones fluidas entre los diferentes sistemas que comprenden el meta-sistema. Tales relaciones e interacciones dinámicas regulan y apoyan la estructura subyacente del sistema de micro-generación donde estrategias de coordinación y control inspiradas en la homeostasis (control homeostático) en los organismos vivos tiene lugar para alcanzar un equilibrio eficiente. Esta tesis discute las bases teóricas detrás del enfoque basado en el control homeostático de sistemas de energía eléctrica, el que pretende abordar y entender a dichos sistemas como organismos vivos que, cuando se construyen en un arreglo de microrred inteligente, conectadas a la red para suministrar energía a un block sustentable, pueden comportarse como sistemas inteligentes abiertos en medio de otros sistemas de orden superior, con los cuales interactúan e intercambiar energía. Basándose en este marco teórico se proponen estrategias de coordinación y control basadas en control homeostático para microrredes conectadas a la red.El enfoque propuesto pretende estudiar y eventualmente desarrollar nuevas formas de abordar y controlar dichos sistemas y desarrollar nuevas tecnologías para integrar energías renovables en proyectos de GD de electricidad y calor, trabajando en paralelo con la red y ofreciendo nuevas alternativas y beneficios a los usuarios en todas partes. Con el uso de medidores inteligentes y otras tecnologías, estos sistemas inteligentes capaces de comunicarse e interactuar con otros sistemas pueden alcanzar una solución eficiente y equilibrada de energía. Todo esto tiene como objetivo traer beneficios adicionales a los consumidores y a los sistemas de energía eléctrica en su totalidad, en línea con la nueva visión actual de la GD: la microrred orientada al cliente [37-40]. A diferencia de (y complementando) la tendencia emergente de investigación en sistemas de gestión energética para microrredes basado en tecnologías de ERNC que emplean principalmente mecanismos de gestión de la demanda de energía, este estudio se enfoca en la gestión de respuesta de los sistemas involucrados, en lo que respecta a la generación, suministro y uso de energía renovable y sus fuentes. Se enfoca también en el acoplamiento de sistemas, la coordinación y mutua asistencia entre dichos sistemas y en todos los aspectos relevantes de su interacción para suministrar energía de forma más efectiva y eficientemente bajo un esquema de control homeostático.El principal problema que abordo en mi investigación es cómo coordinar y controlar de forma eficaz y más eficiente una microrred, desarrollando un fuerte lazo con los conceptos de eficiencia energética y frugalidad en el uso y manejo de la energía, los que se busca integrar como parte estructural de las estrategias de control propuestas para microrredes inteligentes conectadas a la red eléctrica; con la cual estarán operando en paralelo, para suministrar energía a un bloque sustentable con y sin sistemas de almacenamiento de energía.
uc
Modelling mode and route choices on public transport systems
Entender y modelar las decisiones de usuarios de sistemas de transporte público, para analizar sus elecciones y predecir correctamente los flujos en la red, es un elemento fundamental de la planificación urbana. De esta manera, es necesario identificar, cuantificar y modelar los factores relevantes que influyen en el comportamiento y la toma de decisiones individuales. Los modelos tradicionales de demanda por transporte tienden a considerar únicamente como variables explicativas algunos atributos tangibles, obviando otros atributos intangibles que afectan las actitudes y percepciones de los viajeros. Así, existe la necesidad de mejorar y extender la especificación de modelos de demanda por transporte, incorporando una mayor variedad de variables explicativas. Este estudio busca entender cómo los viajeros escogen sus modos y rutas al viajar en sistemas de transporte público, identificando los factores relevantes que son tomados en consideración y cuantificando el impacto que tienen diferentes características del sistema sobre las preferencias de los viajeros. En particular, se analiza el impacto de diferentes características socioeconómicas sobre la percepción de los viajeros respecto a variables como accesibilidad, comodidad, confiabilidad y seguridad. Adicionalmente, este estudio incorpora percepciones y preferencias respecto de una amplia gama de factores (tales como la ocupación de vehículos, los transbordos y la topología de la red) para mejorar la capacidad explicativa y predictiva de los modelos de demanda por transporte.Adicionalmente, se analizan las diferentes estrategias de elección de ruta que los usuarios de transporte público pueden seguir. Estas estrategias están asociadas a la decisión de esperar una línea particular de transporte público, o abordar la primera línea (entre un conjunto definido de “líneas atractivas”) que arriba a la parada. Mientras los modelos tradicionales tienen a asumir que todos los viajeros siguen la misma estrategia, acá se establece una relación directa entre las características socioeconómicas de los individuos y las estrategias que siguen. Los resultados indican que los modelos propuestos presentan un ajuste superior y superan a modelos tradicionales (que ignoran el efecto de las actitudes y percepciones) en términos de capacidad predictiva. Cuando se ignoran factores asociados al comportamiento, serios problemas de sesgo pueden presentarse en las utilidades marginales y las tasas marginales de substitución (tales como los valores del tiempo) que se desprenden de los modelos.Finalmente, se presenta un marco metodológico para la aplicación de los modelos propuestos en planificación de sistemas de transporte público. Se desarrollan dos herramientas en base a los modelos formulados: (i) una herramienta táctica de planificación (para ser usada por autoridades, planificadores y operadores), y (ii) una herramienta para planificar viajes (diseñada y orientada para interactuar con los usuarios). Así, los principales aportes de este estudio son extendidos para realizar aportes reales en sistemas de transporte público, y no ser simplemente una contribución teórica.
uc
Study of furan formation in starchy foods processed at high temperature and technologies for its mitigation
El furano es un compuesto potencialmente cancerígeno en humanos que puede formarse en una amplia gama de alimentos procesados a altas temperaturas, tales como café, alimentos para bebé, pan y snacks. Si bien, aún son inciertos los riesgos asociados a los niveles actuales de ingesta de furano dietario; la mitigación de furano en alimentos podría ser considerada como un desafío en la prevención de enfermedades como el cáncer. La hipótesis de este trabajo es que es posible reducir el nivel de furano presente en alimentos amiláceos procesados a altas temperaturas, mediante la disminución del contenido de sus principales precursores (azúcares reductores y ácido ascórbico) en las materias primas alimentarias. El objetivo de esta tesis fue mejorar el entendimiento de la formación de furano en alimentos amiláceos procesados a altas temperaturas con el fin de desarrollar tecnologías para su mitigación. De acuerdo a las conclusiones anteriores, la concentración de furano de 14 tipos de alimentos comerciales chilenos procesados a altas temperaturas fue analizada en base a un método modificado de cromatografía gaseosa de espacio de cabeza con espectrometría de masas.Además, una evaluación de riesgos fue realizada con estimadores de exposición basados en la data dietaria de estudios nacionales de diferentes grupos etarios. El café tipo “Americano”, las hojuelas de papa frita y las galletas de “Soda” presentaron las concentraciones más altas de furano (936 ng g-1, 259 ng g-1 y 91 ng g-1 respectivamente). Los escolares (9-13 años) y los bebés (9 meses) representaron las mayores ingestas de furano, con márgenes de exposición menores a 10.000 (2.479 y 2.411, respectivamente) lo cual apunta a un posible riesgo público para la salud, considerando que el furano es un compuesto posiblemente cancerígeno y genotóxico. En base a estos resultados, la formación de furano en alimentos amiláceos de bajo contenido de humedad (horneados y fritos) fue estudiada. El rol de la adición de ácido ascórbico y las condiciones de calentamiento sobre la ocurrencia de furano y su relación con el pardeamiento no enzimático en un sistema modelo alimenticio a base de harina de trigo fueron investigados. La adición de ácido ascórbico aumentó significativamente la generación de furano después de los 7 min de calentamiento, teniendo un efecto mayor en los productos horneados.Asimismo, el contenido de furano en alimentos aumentó de manera paralela a los niveles de aceite penetrado. Como para las reacciones de Maillard en general, en todas las muestras el nivel de furano correlacionó linealmente con su grado de pardeamiento no enzimático, representado por los parámetros de color L* y a* (ej. las muestras de harina de trigo horneadas mostraron un R2 of 0.88 y 0.87 para L* y a*, respectivamente) a medida que el contenido de humedad de la muestra disminuyó durante su calentamiento. Finalmente, debido a que se encontró que las hojuelas fritas de papas eran un contribuyente crítico a la ingesta de furano de la población chilena, una tecnología de mitigación de furano para este tipo de matriz alimentaria fue propuesta. De acuerdo a lo anterior, un diseño central compuesto fue usado para optimizar el efecto de la temperatura y tiempo de blanqueado sobre: (i) la extracción de los precursores de furano y acrilamida (azúcares reductores y ácido ascórbico) en láminas de papa y (ii) el nivel de furano, acrilamida y aceite en hojuelas de papa blanqueadas y fritas.El contenido de furano y acrilamida disminuyó (> 50%) significativamente (p˂0.05) al aumentar la temperatura y tiempo de banqueado, mostrando la misma tendencia obtenida para los niveles de precursores. Las condiciones óptimas de blanqueado fueron 64°C y 17 min en las cuales se obtuvieron reducciones del 91%, 54% y 19% de furano, acrilamida y aceite, respectivamente. Desde una perspectiva científica, se concluye que la reducción de la concentración de precursores en las materias primas, específicamente azúcares reductores y ácido ascórbico; produce una disminución del contenido final de furano en los alimentos térmicamente tratados, tales como las hojuelas de papas frita, sugiriendo la reacción de Maillard como la ruta responsable de la generación de furano en este tipo de matriz. Por lo tanto, el blanqueado de láminas de papa puede ser propuesto como una alternativa factible para producir hojuelas de papa fritas más saludables, con menores contenidos de contaminantes alimentarios de proceso y un nivel de aceite controlado.
uc
Algoritmo de gestión dinámica de la demanda para grandes clientes conectados a la red de distribución
La rápida evolución de los programas de respuesta de demanda y mecanismos de gestión activa, ha logrado un aumento significativo de su participación en los mercados más evolucionados del sector eléctrico, lográndose en algunos casos su participación en forma activa y dinámica. Junto a esto, los avances en las redes de comunicaciones bajo el paradigma de SmartGrid han llevado a que tanto los dispositivos más intensivos en consumo a nivel residencial, como a nivel comercial e industrial sean también gestionables. El desafío que surge de todo esto, es que en el mediano y largo plazo la gestión de dispositivos será tan grande y compleja que los operadores del mercado no podrán hacerse cargo de dicha gestión de forma eficiente. Luego, se hace necesario diseñar estrategias que permitan un desacoplamiento de las funciones de gestión dinámica de la demanda y permita al mismo tiempo mantener los criterios de optimalidad que ejecuta en operador del sistema. Más aun, se hace necesario incorporar estos esquemas en mercados en donde la demanda aún mantiene un rol pasivo, incorporando desde el principio los mecanismos necesarios para su óptima participación en el mercado.Esta investigación desarrolla una herramienta novedosa en el proceso de reinvención del mercado eléctrico (Market 3.0) en donde se busca una mayor integración de la demanda en el mercado a partir del uso de redes inteligentes. En específico, se ha desarrollado un algoritmo dinámico de gestión de la demanda de electricidad, con aplicación inicial a grandes clientes conectados a la red de distribución. Esta gestión se logra seleccionando una combinación óptima de estrategias factibles, que permita la disminución de la demanda en punta y el aplanamiento de la curva de carga del sistema, cumpliendo las políticas de seguridad y suficiencia aplicadas a dicha red. El objetivo es transformar a la demanda en un agente activo a través del diseño de un mercado secundario que sirva para dichos propósitos, en donde las decisiones de la participación de los agentes se realizan de acuerdo a la valorización de sus preferencias. Las generalidades y mínimos requerimientos han sido diseñados de manera que sea aplicable tanto en mercados de naturaleza marginalista como aquellos en base a ofertas. El algoritmo presenta un doble propósito, por una parte, mantiene el criterio de maximización de utilidad de la empresa distribuidora y optimiza la distribución de los bloques de energía y potencia adquiridos. Por otra parte, minimiza el consumo en punta y con ello el cargo por potencia que paga el distribuidor, logrando reducir los requerimientos de inversión y operación del sistema en horas de demanda máxima. El algoritmo opera horas antes del despacho real y toma en cuenta a un set de grandes clientes que forma parte de este "sub-mercado", en donde la demanda, puede ofrecer productos de energía y potencia; los distribuidores por su parte, pueden ejecutar contratos firmados de gestión con clientes; y la demanda puede aceptar ofertas de parte del distribuidor en función de su grado de elasticidad.Con esta información y junto con la demanda esperada de ese día, se obtiene un nuevo despacho que cumple con los propósitos descritos anteriormente. Junto al desarrollo del algoritmo, se establecen las condiciones necesarias para que el mecanismo pueda ser implementado; esto es, el desarrollo de un mercado secundario de servicios y productos eléctricos en donde la demanda, las distribuidoras y el ente operador son partícipes. De esta manera el modelo logra cumplir su función en forma eficiente, sujeto a un marco regulatorio que permita y viabilice la puesta en operación de acciones de gestión sobre la demanda arrojadas por el algoritmo. Finalmente, se plantean mecanismos para que la participación de los agentes del lado de la demanda perdure a través del tiempo, esto es, el diseño de portafolios de contratos de largo plazo que incluyan servicios en el mercado de corto plazo en donde el suministrador de estos servicios complementarios a partir de recursos del lado de la demanda. Esta investigación es un aporte al pensamiento creativo en el proceso de reinvención del mercado eléctrico en donde se sitúa a la demanda en el eje central no solo como consumidor sino como parte de una nueva visión de mercado en donde su participación activa y dinámica puede llevar a un mejor desempeño técnico-económico desde tanto para la operación como la planificación de la expansión del mismo.La aplicación de un mecanismo de gestión integrada como el propuesto, permitiría una adecuada participación de la demanda, reconociendo las bondades de su participación activa y dinámica en mercados emergentes. Esta metodología además permite evaluar indicadores de competencia y preferencia de los agentes, a través de un análisis de escenarios y toma de decisiones descentralizadas. En efecto, en un contexto bajo el paradigma de SmartGrid, es el cliente quien mediante este mecanismo toma la decisión de participar o no en el mercado. Los resultados obtenidos muestran que es posible desarrollar una matriz de esquemas de ofertas para la demanda a partir de los perfiles de consumo y las preferencias que estos pueden tener de participar de un esquema de gestión de demanda en particular. Se propone la creación de un nuevo producto en el mercado eléctrico asociado a la suficiencia del sistema, construida en función del nivel de riesgo que esté dispuesto a asumir la demanda para ser abastecida. En este sentido, el mecanismo se transforma en un instrumento de cobertura de riesgo que podría ser transado en el mercado secundario de servicios complementarios ofrecidos por la demanda. Otra novedosa idea resultado de esta investigación es el traspaso de las funciones de gestión y respuesta de la demanda (mercados auxiliares, productos y servicios) al comercializador/distribuidor u operadores de un área particular según sea el tamaño del mercado y la cantidad de clientes activos que hacen parte del sistema. Esta acción permitiría descentralizar y alivianar las actuales y futuras funciones del operador del sistema pero manteniendo los criterios establecidos por el operador central. Esta separación puede ser clave en la medida que los dispositivos inteligentes sean masivos.Los resultados también muestran que determinar cuáles son las características de cada potencial agente participante de un programa de DR, el poder inferir cual es el nivel de esfuerzo y la capacidad de reducir los costos, permitiría asignar de forma más eficiente las inversiones futuras en generación o el establecimiento de contratos de energía base por parte de un comercializador, realizando un perfecto acople entre el corto, mediano y largo plazo. Los desarrollos futuros sobre los cuales se considera relevante profundizar son: el desarrollo de portafolios eficientes de contratación, masificación de programas de gestión, desarrollo de aplicaciones móviles de seguimiento de la demanda, caracterizar en forma adecuada a la demanda a través de encuestas que permitan mejorar para determinar estrategias y preferencias de los agentes que participan en el proceso de planificación. Finalmente, implementar la metodología propuesta en un mercado específico.
uc
La nitración de proteínas contribuye a la potenciación quimiosensorial del cuerpo carotídeo de ratas sometidas a hipoxia intermitente.
La hipoxia se manifiesta en diferentes condiciones fisiológicas y patológicas en los seres vivos. Entre ellas, uno de los patrones de hipoxia más común es la hipoxia intermitente crónica que consiste en la ocurrencia de eventos de hipoxia de corta duración seguidos por episodios de normoxia, tal como ocurre en el síndrome de apnea obstructiva del sueño. Numerosos reportes demuestran que la hipoxia intermitente contribuye al desarrollo de alteraciones cardiovasculares e hipertensión que sufren los pacientes con apnea obstructiva del sueño. De hecho, se ha demostrado que, pacientes con apnea obstructiva del sueño o animales sometidos a hipoxia intermitente crónica, presentan potenciación de los reflejos ventilatorios, simpáticos y cardiovasculares en respuesta a la hipoxia aguda. Este aumento de respuestas ha sido atribuido a la potenciación de la reactividad de los quimiorreceptores del cuerpo carotídeo.La potenciación quimiosensorial carotídea consiste en un aumento de la frecuencia de descarga de potenciales de acción del nervio carotideo en respuesta a un estímulo hipóxico agudo, pero los mecanismos celulares asociados a este fenómeno no se conocen completamente. Pese a esto, se sabe que la generación de especies reactivas de oxígeno (ROS) y en particular el radical superóxido (O2 -) contribuyen a la potenciación quimiosensorial, ya que la administración de antioxidantes y/o agentes miméticos de las superóxido dismutasas (SODs) previenen la potenciación quimiosensorial. Resultados obtenidos en nuestro laboratorio muestran que marcadores relacionados con el estrés oxidativo o las respuestas inflamatorias podrían estar implicados en la generación de la potenciación quimiosensorial, sin embargo, de ellas, sólo la formación de residuos de 3-nitrotirosinas (3-NT) presenta un correlato temporal con la aparición de la potenciación quimiosensorial. El O2 - y el óxido nítrico pueden reaccionan formando radical peroxinitrito, que modifica residuos de tirosina generando 3-NT. Por lo tanto, decidimos estudiar un posible mecanismo que explicara cómo, la formación de 3-NT, puede contribuir a la potenciación quimiosensorial del cuerpo carotídeo.Una de las proteínas susceptibles a sufrir nitración es la manganeso SOD (MnSOD). Esta enzima mitocondrial, normalmente regula los niveles tóxicos de O2 -, pero presenta disminución de su actividad catalítica cuando es modificada por nitración en su sitio activo. Dado que los niveles de O2 - dependen de la actividad catalítica de la MnSOD, cabe esperar que una disminución en su actividad por nitración aumente los niveles de ROS en las células quimiorreceptoras de cuerpo carotídeo, contribuyendo a la potenciación quimiosensorial. Estudiamos el efecto de la hipoxia intermitente sobre la actividad quimiosensorial, los niveles de MnSOD y 3-NT en el cuerpo carotídeo de rata. Analizamos si la hipoxia intermitente genera cambios en la actividad de la MnSOD y si estos cambios se relacionan con la nitración de esta enzima.Los resultados descritos en esta Tesis doctoral demuestran que la exposición a hipoxia intermitente crónica por 5 días produce aumento de la actividad del nervio carotídeo en respuesta a un estímulo de hipoxia aguda y que este aumento se mantiene luego de 7 días de hipoxia intermitente. Que cuerpos carotídeos de ratas sometidas a 3 días de hipoxia intermitente presentan aumento en los niveles de 3-NT, los que se mantienen altos luego de 5 y 7 días de exposición a hipoxia intermitente. Dado que el CB tiene un pequeño tamaño (500 μm de diámetro), usamos a las células cromafines de la médula adrenal como modelo de las células glómicas del CB. Encontramos que la exposición a 7 días de hipoxia intermitente también aumenta los niveles de 3-NT en las médulas adrenales. Además, encontramos que en ratas sometidas a hipoxia intermitente la actividad de la MnSOD se encuentra disminuida en las médulas adrenales pero aumentada homogenizados de cuerpo carotídeo, y que dichos cambios son prevenidos al administrar ácido ascórbico como antioxidante.Por otra parte encontramos que, en ratas expuestas a hipoxia intermitente, no cambian los niveles de MnSOD en las médulas adrenales, pero sí están aumentados en homogenizados de cuerpo carotídeo. Sugiriendo que el aumento de actividad de la MnSOD en los cuerpos carotídeos se debe a un aumento de sus niveles. Al medir los niveles de MnSOD nitrada a través de ensayos de co-inmunoprecipitación, encontramos que tanto en las médulas adrenales, como en los cuerpos carotídeos, los niveles de MnSOD nitrada en ratas sometidas a hipoxia intermitente es mayor que en las ratas controles, y que este aumento es prevenido con el tratamiento con antioxidantes. Pese a que el aumento de actividad observado en los cuerpos carotídeos de ratas sometidas a CIH, descarta la contribución de la nitración de la MnSOD en la potenciación quimiosensorial, decidimos estudiar la contribución del radical peroxinitrito (inductor de la nitración) y de los ROS mitocondriales sobre la actividad quimiosensorial usando distintos antioxidantes. MitoTEMPO (específico contra ROS mitocondriales) y Ebselen (específico contra peroxinitrito), previenen el desarrollo de la potenciación quimiosensorial del CB. Además la administración de Ebselen revierte el aumento de la presión arterial inducido por hipoxia intermitente. Estos resultados permiten concluir que la nitración de la MnSOD no está involucrada en el aumento de actividad quimiosensorial evocada por CIH. La producción de peroxinitrito y/o de ROS mitocondriales son fundamentales para desarrollar la potenciación quimiosensorial del cuerpo carotídeo observada en ratas sometidas a hipoxia intermitente. Y el tratamiento con Ebselen revierte la hipertensión inducida por CIH.
uc
Concepciones de profesores de ciencias en ejercicio acerca del desarrollo : una aproximación desde la reflexión de su práctica
En la actualidad, el desarrollo de los estudiantes es preocupación principal de prácticamente todos los sistemas educacionales. Particularmente en el caso de Chile, dicha preocupación se hace evidente en documentos normativos y programáticos como el Marco Curricular y el de la Buena Enseñanza; en ambos se señala que una de las tareas a que deben abocarse los docentes en todos los grados y niveles de educación es la promoción del desarrollo de los alumnos desde las edades más tempranas; lo cual no se realiza en el quehacer diario de los profesores. Es bien conocido hoy en día el efecto de las concepciones del profesor acerca del proceso de enseñanza-aprendizaje-evaluación sobre la calidad del aprendizaje de sus estudiantes (Abd-El-Khalick & Lederman, 2000; Mellado, 2004; Pozo, 2006); así como la relevancia que tiene el desarrollo de los estudiantes en dicho proceso (Bruner,2004, Labarrere, 2008, Aznar, 2000) y la estrecha vinculación entre desarrollo y aprendizaje (Vigotsky, 1979, Karmiloff-Smith, 1994; Baquero, 2011; Castorina, et., al 1996; Aznar, 2000); sin embargo, esta última relación, si bien primordial, muchas veces termina siendo la menos evidente al momento de explicar los procesos que acontecen en el aula. Se carece de estudios que nos permitan considerar los referentes teóricos y las relaciones imbricadas en dichas concepciones, así como la manera en que ellas se manifiestan y orientan la actividad didáctica de los y las docentes...
uc
Flexibilización de requisitos sísmicos de diseño para edificios de pórticos de 2 pisos o menos
En la presente investigación se plantea, para edificios de pórticos de hormigón armado de dos pisos o menos, la posibilidad de flexibilizar los criterios de diseño sismo-resistente que presentan las normas actuales (pórticos especiales a momento según ACI-318/11, ASCE/ SEI 7-10 y la norma ecuatoriana NEC-11), con el objetivo de obtener estructuras con menores cantidades de refuerzo que cumplan con una adecuada probabilidad de colapso. Para demostrar que se cumple con el criterio de desempeño de prevención de colapso, se utilizó la metodología que propone el documento FEMA P-695. Adicionalmente se aprovecharon los resultados para comparar los requerimientos de esta metodología con los de la norma ASCE/SEI 41. De los resultados se concluye que es técnicamente posible flexibilizar los criterios de diseño de confinamiento y el de resistencia a flexión de columnas de los pórticos especiales a momento (es decir, criterio columna fuerte - viga débil) de la norma ACI-318/11, logrando un diseño nuevo con reducciones del orden del 30% en cantidades de acero de refuerzo, en comparación a un diseño realizado siguiendo las recomendaciones de la norma mencionada.
uc
Entrepreneurial biases : a systematic review and the study of how the approaches of entrepreneurs associate with biases
La teoría psicológica de sesgos entrega una perspectiva única, práctica y empíricamente comprobable en decisiones emprendedoras. Académicos utilizan cada vez más los sesgos para explicar una variedad de fenómenos en emprendimiento. Esta tesis desarrolla un marco teórico basado en los antecedentes e impactos de sesgos y en su categorización, revelando los desarrollos existentes, los cuales pueden ser incompatibles o contradictorios entre ellos, por ejemplo, cómo la experiencia afecta los sesgos y como los sesgos impactan la toma de riesgos. Este trabajo entrega una evaluación sistemática, permitiendo a investigadores reflexionar acerca de lo que se ha hecho y las brechas existentes en este floreciente pero fragmentado campo de investigación.El segundo capítulo considera que dado el robusto desarrollo de efectuación y causalidad como heurísticas que utilizan los emprendedores en la creación de emprendimientos, y dado que se aproximan a otros por búsqueda de consejos, es sorprendente que ninguno de estos enfoques han sido estudiados respecto a su asociación con los sesgos. Siguiendo la teoría de heurísticas y sesgos hasta el origen de la economía de comportamiento, este estudio encuentra que efectuación, causalidad, búsqueda de consejo externo e interno, incluyen o cambian heurísticas, y por lo tanto afectan su sub-producto, los sesgos. Los sesgos se manifiestan fuertemente en los emprendedores y en distintas maneras en comparación a gerentes de organizaciones establecidas. En este trabajo se construye sobre la teoría de efectuación y búsqueda de consejo para proponer como están acompañados por los sesgos de exceso de confianza e ilusión de control. Testeado en 104 emprendedores nacientes, encontramos sorprendentemente que varias de nuestras relaciones propuestas son empíricamente comprobadas pero en sentido opuesto. En este capítulo se reflexiona acerca de las lecciones aprendidas, se discuten las contribuciones a la literatura de sesgos de emprendedores, efectuación y búsqueda de consejos.
uc
Optimal preconditioners for solving two-dimensional fractures and screens using boundary elements.
Muchos problemas en ingeniería pueden ser formulados como problemas de fractura , pantalla (Shestopalov et al., 2000; Meixner, 1972; E. Stephan, 1987), o interfaz (Costabel & Dauge, 2002; Nicaise & Sändig, 1994a, 1994b; E. P. Stephan & Wendland, 1984) en dos dimensiones. La forma más simple de modelarlos es considerar el siguiente problema para una curva abierta C ⊂ R2, −ΔU = 0 en R2 \ C , U= g o ∂U ∂n = h en C , (0.2) más condiciones de decaimiento en∞ y condiciones de borde g y h apropiadas. El método de elementos de frontera (BEM) es una opción atractiva para lidiar con el carácter infinito del dominio y la condición de decaimiento. Desafortunadamente, el comportamiento singular de las soluciones hace que los operadores integrales asociados estén mal condicionados. Por lo tanto, la resolución mediante métodos iterativos requiere un alto costo computacional. Una forma de abordar esta dificultad y mejorar el condicionamiento de dichos operadores es utilizando precondicionadores (Hiptmair, 2006).En esta tesis se presenta la implementación de las las identidades de tipo Calderón formuladas por Jerez-Hanckes y Nédélec (Jerez-Hanckes & Nédélec, 2011; Jerez-Hanckes & Nédélec, 2012) para intervalos abiertos. Adicionalmente, éstas se utilizan para construir precondicionadores óptimos para los operadores integrales asociados a (1.1) y su extensión a la ecuación de Helmholtz. Finalmente, dado que la singularidad de las soluciones se comporta como 1 √d , donde d es la distancia a los bordes de la fractura, se puede obtener mayor precisión utilizando mallados que se refinen cerca de los bordes. Por esta razón el presente trabajo también muestra la extensión de la teoría de precondicionamiento a mallados no uniformes.
uc
Análisis de colaboración cercana y distante en aula
El año 2015 PISA incorporará una medición de la capacidad de los niños para resolver problemas de forma colaborativa. Esta es una de las tantas evidencias de la importancia que cobra el aprendizaje colaborativo en la educación actual. Sin embargo, aún existe confusión entre la definición de colaboración y cooperación y sobre las interacciones que surgen en estos contextos. El objetivo de esta investigación es, por un lado probar una taxonomía de actividades colaborativas. Por otro lado, evaluar las diferencias entre dos configuraciones de colaboración: pares distantes y no distantes. En la primera configuración surge la ‘colaboración silenciosa’ que utiliza el software como herramienta de colaboración mientras que en la segunda surge la ‘colaboración hablada’. Para esto, se realizaron dos estudios con apoyo de un software de pantalla compartida.El primero probó la taxonomía mediante actividades de ejercitación. El segundo, insertó el aprendizaje colaborativo en un estudio de ocho sesiones en el contexto de instrucción participativa. Los resultados del primer experimento comprueban que las actividades de nivel de dependencia fuerte (más de una solución y más de un rol por alumno) son percibidas como más difíciles ya que requieren de mayor esfuerzo grupal. Además, a medida que las actividades varían de débil a fuerte, la presencia de liderazgo distribuido aumenta significativamente con respecto a las débiles donde prevalece un liderazgo imperativo centrado en un solo alumno. El segundo experimento muestra que ambas configuraciones son igualmente efectivas en términos de aprendizaje. Además, la colaboración silenciosa parece ser una buena herramienta para alumnos con bajas habilidades colaborativas y como primer paso hacia actividades que incluyan la colaboración hablada.
uc
Factibilidad económica para el desarrollo de la energía solar en sistemas térmicos.
En un sistema eléctrico térmico alimentado principalmente por carbón y gas, donde existe un gran potencial de generación solar, la instalación masiva de esta tecnología puede resultar atractiva. Esto, tanto desde el punto de vista de reducción de costos como desde el punto de vista de la gestión de riesgos, donde la generación solar permite reducir la exposición a la volatilidad de los precios de los combustibles fósiles. Para analizar este potencial se formulan y utilizan tres modelos económico-financieros independientes. El primero de ellos determina la expansión óptima de un sistema eléctrico predominantemente térmico, incorporando generación solar. El segundo determina el impacto de la instalación de potencia solar en la volatilidad de los precios. Finalmente el tercero analiza la conveniencia desde el punto de vista de un gran cliente industrial, de la instalación de generación solar como medida de mitigación de sus emisiones de gases de efecto invernaderos.Los modelos son aplicados al Sistema Interconectado del Norte Grande de Chile, el que debido a su ubicación – en pleno desierto de Atacama – corresponde a uno de los lugares más propicios a nivel mundial para el desarrollo de la energía solar. Los resultados obtenidos sirven de referencia para cualquier sistema eléctrico donde exista interés por desarrollar esta tecnología. Los resultados evidencian la falta de madurez de la tecnología solar, aun considerando proyecciones optimistas para la baja en sus costos de inversión. Para lograr su viabilidad económica se requiere la aplicación de políticas ambientales complementarias. En cuanto a la capacidad de control de la volatilidad ocurre una situación similar, pues se encuentra fuertemente limitada por las restricciones técnicas derivadas de la intermitencia propia de este tipo de generación.
uc
The evolution of risk perception in Chile : a comparison of cross sectional studies (2001-2013)
Chile ha experimentado muchos cambios sociales y culturales durante la última década. Con un aumento del PIB per cápita y alta estabilidad política, Chile se ha posicionado como uno de los países más desarrollados de la región. A la vez, grandes desastres naturales han afectado a la población. El más relevante ocurrió en el 2010, cuando un terremoto de magnitud 8.9 y un tsunami afectaron al 80% de la población chilena, algo que no había ocurrido a este nivel de magnitud desde 1960. Con todos estos cambios, es esperable que la percepción de riesgo de la población haya cambiado en la última década. El principal objetivo de esta investigación es evaluar el cambio en percepciones de riesgo en Chile entre el 2001 y el 2013. Para llevar esto a cabo, se midieron las percepciones de riesgo actuales y se contrastaron con aquellas evaluadas en el estudio de Bronfman y Cifuentes (2003). Basándose en el paradigma sicométrico, y utilizando una encuesta similar a la del estudio pasado, se estudiaron las diferencias de percepciones de riesgo, beneficio y aceptabilidad para 31 peligros distintos.La encuesta fue implementada en Santiago de Chile en junio del 2013, donde 1.273 personas participaron del estudio. Los resultados muestran que el paradigma sicométrico no muestra grandes diferencias en la última década. El factor 1 (“Riesgo Terrible”) se mantiene como el más importante a la hora de explicar las percepciones de la población para el 2001 y el 2013. Las percepciones de riesgo, beneficio y aceptabilidad muestran cambios significativos en la última década: la población actual percibe los peligros con mayor riesgo y menor aceptabilidad que hace una década, particularmente para desastres naturales, males sociales y peligros ambientales. Las implicancias de este estudio en políticas públicas son discutidas.
uc
Implementación de metodologías lean en desarrollo minero
El desarrollo minero cumple un rol fundamental en el ciclo del negocio de la industria minera, representando una alta proporción del costo total. Éste es un factor clave en la competitividad del yacimiento y desarrollar la construcción de manera óptima puede ser una determinante esencial en el éxito de un proyecto. Actualmente, la minería no se ha adaptado a la producción en tiempos de escasez, situación que se aproxima por el alto coste de la energía y agua, el incremento de proyectos en condiciones extremas y la ausencia de yacimientos con alta ley. Bajo este aspecto, el pensamiento lean permite la producción en economías de crecimiento lento, generando una ventaja competitiva y siendo una fuente potencial de ahorro para empresas y organizaciones. Sin embargo, son pocas las empresas que han iniciado una transformación sistemática al pensamiento lean. Esta investigación pretende disminuir la brecha entre la aplicabilidad teórica del pensamiento lean con su aplicación efectiva.Para esto, estudia el impacto generado por la implementación de metodologías lean en proyectos de desarrollo minero, brindando conocimiento que permita incentivar el uso de este pensamiento en futuros proyectos. En todos los casos de estudio analizados, la implementación de metodologías lean genera mejoras tanto en el desempeño de los proyectos como en el desempeño de las organizaciones involucradas. En definitiva, la utilización de metodologías lean en el desarrollo minero es una opción que las empresas deberían adoptar para enfrentar los desafíos que se avecinan. No obstante, queda en deuda conocer cómo afecta económicamente la adopción de estas metodologías y cuánto ahorro permite generar.
uc
Diseño conceptual de propuesta educomunicacional para incrementar la participación de adultos mayores en los programas municipales de Maipú
La población adulta mayor se incrementa día a día, no sólo en Chile, sino que en el mundo. Este hecho ha generado que diversas entidades comiencen a preocuparse por establecer una base sólida para enfrentar los desafíos de un escenario en que las personas viven cada vez más sin las condiciones mínimas necesarias. La comuna de Maipú no escapa a esta realidad, y aun cuando el Municipio ha generado acciones para promover el envejecimiento activo y una mejor calidad de vida en la vejez, no ha conseguido aumentar la participación de este grupo en la oferta municipal. Es en este contexto que emerge el mandato real de la Municipalidad de Maipú, canalizado a través del Programa Puentes UC, de generar una propuesta que tienda a aumentar la participación de los mayores en las actividades que la institución genera año a año. De esta forma, el proyecto realizado tiene como objetivo elaborar el diseño conceptual de una propuesta educomunicativa (que por su magnitud no incluirá ni el diseño experimental ni el operacional) que permita aumentar la participación de los adultos mayores en los programas municipales. Para conseguirlo, se realizó un fuerte diagnóstico a través del desarrollo y análisis de dos focus group (uno con mayores participantes de la oferta municipal y otro con aquellos que no participaban), y de una encuesta aplicada a más de 500 mayores en los consultorios médicos más concurridos de la comuna. Los resultados de este análisis permitieron elevar 3 objetivos de intervención a través de la Metodología del Marco Lógico (además de las actividades presentadas): que los adultos mayores de Maipú conozcan la oferta de programas municipales; que los adultos mayores de Maipú comprendan los beneficios de mantenerse activos y participativos; y 2 que los adultos mayores mejoren algunas de sus condiciones para participar en los programas municipales. De esta forma, esta propuesta entrega...
uc
Profesores y la novela gráfica : una herramienta pedagógica para el desarrollo del inglés como lengua extranjera
Este proyecto busca que los futuros profesores del subsector Idioma Extranjero Inglés conozcan el potencial educativo de la Novela Gráfica. Para lograr este fin, se diseñó un taller de alfabetización medial y una propuesta web educativa sobre Cómics y Novela Gráfica, tomando como público objetivo a los alumnos del Programa de Formación Pedagógica Inglés de la Pontificia Universidad Católica de Chile. El proyecto establece que los futuros profesores no conocen la temática en profundidad, pero aun así están dispuestos a aprender de ella, utilizar la Novela Gráfica en sus futuras clases, utilizar un medio online que les permita crear actividades pedagógicas basadas en ella, y compartirlas con sus pares.
uc
Propuesta conceptual sobre el uso didáctico de las redes sociales en el contexto educativo formal
Con la vertiginosa inclusión de las nuevas tecnologías en las sociedades actuales, la educación se ha ido transformando y de igual modo sus metodologías. Los procesos de enseñanza-aprendizaje ya no son iguales, por lo tanto la innovación tecnológica con el fin de ser utilizada por los docentes de hoy, es un aspecto clave que se debe desarrollar sin ningún pretexto o temor. Dentro de este contexto un claro ejemplo es lo que ocurre en el establecimiento educacional “Colegio Alicante de Maipú”, donde si bien las TIC forman parte del día a día de tanto alumnos como profesores, se identifica una carencia de instancias de inclusión de tecnologías de la comunicación al proceso de enseñanza-aprendizaje. Por esta razón, el proyecto tiene como objetivo el aprovechamiento de las posibilidades educativas de las redes sociales por parte de los docentes del colegio Alicante de Maipú para mejorar no solo sus competencias y habilidades, sino también las de los estudiantes, en la búsqueda de un proceso enseñanza-aprendizaje significativo. El grupo objetivo del proyecto está constituido por 19 profesores de los niveles 7mo y 8vo pertenecientes al sector B del colegio, distribuidos en los distintos subsectores educativos. Es un grupo heterogéneo con disímiles competencias tecnológicas pero que presentan en común la utilización de la tecnología en su quehacer profesional con diferentes propósitos. Para llevar a cabo el objetivo expuesto anteriormente y teniendo en cuenta las características de la audiencia, se plantea una propuesta de solución medial a nivel de diseño conceptual frente a la problemática de la inclusión de Redes Sociales al contexto educativo formal, por lo tanto no incluye la formulación del prototipo, el presupuesto y el plan de instalación. Esta propuesta surge como respuesta a las necesidades educativas de los estudiantes del “Colegio Alicante de Maipú”...
uc
Función de sindecán-4 y fibronectina en la regulación de la vía WNT/β- catenina.
La señalización Wnt posee múltiples funciones biológicas, tanto durante el desarrollo embrionario como en la homeostasis adulta. Esta vía de señalización se compone de dos ramas, una denominada "vía Wnt/β-catenina" (o vía "canónica") y una segunda rama, denominada vía Wnt no canónica, la cual ejerce un efecto inhibitorio sobre la vía Wnt/β- catenina. La vía Wnt/β-catenina es activada por ligandos secretados Wnt, que forman complejos con receptores de la familia Frizzled y los co-receptores LRP5/6, evento que induce la estabilización de la proteína β-catenina, en un mecanismo que involucra la movilización y regulación de la actividad de componentes intracelulares. Defectos en la regulación de la vía Wnt/β-catenina están asociados al establecimiento de numerosas patologías, incluyendo algunos tipos de cáncer, por lo que es importante comprender los mecanismos que permiten su regulación. La vía Wnt/β-catenina se encuentra regulada por proteínas extracelulares e intracelulares. Los reguladores extracelulares incluyen a la familia de ligandos secretados RSpondin, los que potencian la activación de la vía a nivel de los receptores Frizzled/LRP6, especialmente en células troncales que expresan los receptores LGR4/5/6. Entre las proteínas que regulan la vía Wnt se encuentran también algunos proteoglicanes de Heparán Sulfato (HSPG). Los HSPG son proteínas que presentan cadenas de glicosaminoglicanos (GAGs) en su dominio extracelular, y que cumplen múltiples funciones biológicas. Sindecán-4, un HSPG de transmembrana, posee un dominio extracelular modificado con cadenas de GAGs que le permiten unir a diversas proteínas secretadas, incluyendo ligandos Wnt y a Fibronectina (proteína componente de la matriz extracelular), y un dominio citoplasmático que le otorga características específicas en la regulación de la migración celular y del citoesqueleto...
uc
A factor based dynamic risk model for fixed income portfolios : an application in an emerging market
Una tendencia reciente relacionada con la gestión de riesgo se ha vuelto muy popular entre académicos y ejecutores, incluyendo las mayores empresas financieras. Consiste en expresar el riesgo de un portafolio en términos de factores de riesgo subyacentes, los cuales reflejan exposición a variaciones de mercado que se encuentran “detrás de escena” y revelan el “mito de la diversificación”, entregando a los gerentes de portafolios un gran conocimiento sobre el riesgo de sus carteras de inversión, en momentos de mayor complejidad. Adicionalmente, muchos estudios relacionados han concluido que, para capturar los cambios de volatilidad y en la correlación entre factores, se deben considerar coeficientes que cambien en el tiempo al modelar el riesgo.En esta Tesis, proponemos un modelo de riesgo que incluye ambas tendencias y se enfoca en el mercado de renta fija, el cual es un importante mercado a nivel mundial en términos de volumen y no ha sido estudiado de manera profunda en cuanto a estos métodos. Además, presentamos una metodología para validar la robustez del modelo a través de Value-at-Risk Back-Testing. Adicionalmente, probamos nuestro modelo en un mercado emergente con baja liquidez, dado que los coeficientes dependientes del tiempo permiten capturar cambios en la volatilidad y rápidos movimientos en la correlación de factores, características comúnmente encontradas en estos mercados.
uc
Análisis de la creación de un fondo de estabilización de los precios de la energía para el fomento de la energía renovable
La tesis realizada busca evaluar la creación de un Fondo de Estabilización de precios de la energía para fomentar el desarrollo de proyectos de energía renovables no convencionales (ERNC) en Chile, principalmente proyectos eólicos y solares. La implementación de este Fondo busca reducir los riesgos asociados a la volatilidad de los precios del mercado spot y, por lo tanto, facilitar el acceso a financiamiento de estos proyectos. Este Fondo de Estabilización actuaría como un comercializador virtual, comprando energía a los desarrolladores de proyectos ERNC, a cambio de un precio estabilizado fijo en un horizonte de largo plazo. A su vez el Fondo vendería esta energía en el mercado spot al costo marginal, asumiendo el riesgo de comercialización asociado a la variabilidad de precios.La evaluación del funcionamiento del Fondo busca determinar bajo qué condiciones de operación éste sería viable, y en qué medida es posible encontrar o definir parámetros de operación que permitan maximizar la energía apoyada por este instrumento. Por lo tanto, este análisis busca dar las primeras luces sobre las posibilidades y limitaciones que enfrentará el Fondo de Estabilización. La metodología utilizada para evaluar el Fondo consta de dos etapas. Una primera etapa de optimización, en la cual se busca un portafolio de generación que maximiza la energía apoyada para una condición especifica de operación del sistema. La segunda etapa evalúa cada portafolio óptimo para un gran número de condiciones de operación diferentes, para posteriormente analizar y clasificarlas las soluciones según criterios de desempeño, como generación total de energía, saldo final esperado y probabilidad de quiebra.
uc
Empirical pricing performance of commodity derivatives models : when is worth to use a stochastic volatility specification?
La valoración derivados de commodity depende del proceso asumido por el activo subyacente. Mientras que la media de los retornos es importante para los precios futuros, la volatilidad lo es para el precio de las opciones. En este trabajo se compara empíricamente el ajuste de precios de un modelo con volatilidad constante (CV) contra uno con una especificación estocástica de la volatilidad (SV). Estos modelos se aplican al petróleo, el cobre y el oro, consiguiendo resultados consistentes para los tres commodities. En primer lugar, el modelo CV es claramente una alternativa mejor para valorizar contratos futuros, no sólo es más simple, sino que también tiene errores más pequeños. Sin embargo, si se utiliza para valorizar contratos de opciones el error es considerablemente mayor. En segundo lugar, cuanto mayor sea la madurez de la opción, menos relevantes son las diferencias en los errores en los precios. En tercer lugar, la mayor complejidad del modelo SV se refleja en tiempos de ejecución, aproximadamente, 10 veces más grandes. En cuarto lugar, los resultados del modelo de SV, por primera vez aplicado al oro y cobre, sugieren con fuerza la presencia de componentes de volatilidad no abarcados por el mercado del spot (USV) en todos los tres commodities. Elegir el mejor modelo para poner en práctica en una situación real depende de los objetivos que se persiguen y del balance entre esfuerzo y precisión. Los resultados presentados son entonces no sólo nuevos, sino que también relevantes desde el punto de vista práctico-profesional.
uc
Modelos de gestión del riesgo asociado a la incertidumbre en las variables intrínsecas del proceso de construcción de una mina subterránea
Todas las decisiones de inversión son difíciles ya que el análisis de decisión se basa en información parcial. Además, rara vez se dispone de todos los datos necesarios para saber a ciencia cierta los resultados de una acción y en muchos casos, los datos son imposibles de obtener. En el caso de los grandes proyectos de inversión mineros, las fuentes de incertidumbre son particularmente numerosas y se hacen presentes durante todas las etapas de definición y construcción. Gran parte de la viabilidad técnica y económica de un proyecto de estas características dependerá de lo bien que se manejen estas fuentes de incertidumbre y de la efectividad con que se destinen las inversiones para lograr niveles bancables de riesgo. Los métodos tradicionales de cuantificación del riesgo proporcionan muy poca información respecto al origen de los mismos, dificultando con ello el proceso de mitigación u optimización.El proceso de cuantificación del riesgo asociado a la construcción de un proyecto se hace particularmente difícil, principalmente porque la cantidad de variables que condicionan los rendimientos son múltiples y las interacciones entre los recursos constructivos son complejas. En este contexto, los métodos de evaluación mediante la simulación de operaciones unitarias han demostrado tener potencial para estimar de manera efectiva y realista el riesgo. En este estudio se desarrollan modelos de las actividades unitarias de avance asociadas a la preparación de una mina subterránea, y se cuantifica el riesgo asociado a la construcción de túneles de preproducción mediante una simulación orientada a eventos. Paralelamente se gestiona el riesgo constructivo mediante una optimización de la flota de equipos de preparación. Los modelos propuestos son validados a través de su aplicación en el Proyecto Mina Chuquicamata Subterránea.
uc
El cambio y la crítica como estrategia para guiar la propia obra hacia los márgenes de lo establecido, o sobre cómo hecerla proceso.
La presente memoria se levanta como texto crítico dirigido a la propia producción de obra, aquí objeto de estudio (o.e.). Su forma como escrito, imagen o reflejo del o.e. se ve cuestionada desde un comienzo, pues se reconoce que al investigar en arte los modos de aproximación a la obra se levantan como problemática en sí. Esta problematización de la metodología de análisis se hace pertinente al reconocer, de antemano, que el o.e. podría definirse como obra en constante cambio, pues pasa por la fotografía, el objeto, la instalación y la acción. Bajo esta necesidad de cambio, o del cómo hacer del proceso la obra, es que la memoria presenta cinco capítulos centrales, donde cada uno describe, relaciona históricamente y analiza una obra en cuestión, solo para lograr destacar aquellos aspectos más importantes, asuntos reconocibles desde una aproximación volcada sobre lo discursivo del o.e. –intenciones, operaciones, procedimientos-, más que sobre lo propiamente material. Cada estudio de obra, fundado en la relación histórica con artistas relacionados al conceptualismo y post-minimalismo, permitirá describir un vínculo diferencial entre los o.e. analizados, consecución que esboza una suerte de historia de obra que concluye, finalmente, con la observación de la acción como arte y la conclusión de que esta búsqueda artística necesitó, constantemente, situar el discurso formal en el margen con el fin de proponer una manera de hacer política en las artes visuales.
uc
Potencial desarrollo fotovoltaico en Chile :desde la gran escala hasta la medición neta
El mercado de sistemas fotovoltaicos en todas las escalas ha enfrentado un acelerado desarrollo en los últimos años, debido a la abrupta caída en sus precios, lo que es atribuido principalmente a la irrupción de China como un nuevo actor relevante en esta industria. El objetivo de esta tesis es evaluar la viabilidad económica de la instalación de sistemas de generación fotovoltaicos de pequeña y gran escala (algunos kW hasta cientos de MW), pero realizando un diseño detallado y modelando la tecnología, para lograr un preciso análisis de los costos de instalación y de producción de energía. Los sistemas fotovoltaicos de pequeña escala conectados a la red residencial son evaluados en escenarios de Net Metering y Net Billing en 10 ciudades a lo largo de Chile. Para el análisis se utiliza un consumo que es estudiado y estimado en base a una auditoría energética - eléctrica, y tres tamaños de instalaciones fotovoltaicas (pequeño, medio y grande con respecto al consumo). Para determinar la generación se implementa una formulación que considera orientaciones e inclinaciones que son sensibilizadas, así como también las fuentes de pérdida más importantes del proceso.Con las valorizaciones de la energía consumida localmente e inyectada a la red se obtienen los precios medios de la energía generada, que posteriormente se comparan con los costos nivelados de un sistema fotovoltaico y las tarifas de consumo de electricidad por ciudad. Los resultados muestran que naturalmente el Net Metering es una mejor opción para el consumidor con un sistema de generación fotovoltaico y que en el caso de estar bajo un esquema de Net Billing, largos intervalos de integración son más convenientes para el consumidor. Bajo este esquema además se observa que es más conveniente que la capacidad del sistema fotovoltaico sea pequeña en relación al consumo de electricidad del hogar, evitando excedentes de generación, pues éstos son remunerados a menores precios. Por otra parte, los proyectos de gran escala se analizaron a partir de información pública del sistema SEA, desde el año 2009 hasta noviembre de 2013, mostrando una significativa disminución de los costos de instalación por año, con una ligera economía de escala y un creciente número de proyectos en los últimos dos años. Ambos estudios presentan un promisorio desarrollo solar fotovoltaico en Chile.
uc
Guitarristas eléctricos en Chile : la experiencia de Francisco Cabrera, Óscar Arriagada y Carlos Corales en las décadas de 1950 a 1970.
La presente tesis trata sobre la investigación de la guitarra eléctrica en Chile en las décadas de 1950 a 1970, tomando tres casos de estudio –guitarristas eléctricos– que dan la panorámica general de la historia del instrumento en nuestro país. La guitarra eléctrica, instrumento musical que mezcla la tecnología acústica con la eléctrica, se instala y difunde por los medios de difusión como los espectáculos musicales, la radio, el tocadiscos, la televisión y el cine sonoro, a través de las nuevas músicas que se imponen en una incipiente juventud, como el rock and roll. Este instrumento musical funciona como un aparato transculturizador (Madrid, 2003) en el momento que es apropiado en/por una localidad generando hibridismo (Farias, 2011) producido en el encuentro de dos culturas, espacio donde adquiere marcas locales obteniendo un nuevo significado –siendo resignificado (Citro y Cerletti, 2006), convirtiéndose en un instrumento musical que permanece en constante diálogo cultural entre lo global y lo local: lo glocal (Bennett y Dawe, 2001). El análisis musical de canciones y solos ejecutados por estos guitarristas ayudarán a la descripción de su „estética sonora‟ particular, generada por la sinergia entre su equipamiento –gear–; sus referentes musicales y los repertorios interpretados, realizada mediante transcripciones del repertorio con notación especializada para guitarra eléctrica.
uc
Gestualidad corporal en intérpretes de flauta traversa : estudio acerca de la correspondencia entre música y movimiento corporal.
Los intérpretes realizan gestos corporales auxiliares de carácter expresivo de manera inconsciente durante el transcurso de la ejecución de una pieza musical. El espectador percibe esta información visual simultáneamente a la recepción de los estímulos sonoros producidos por la ejecución del instrumento. Estos movimientos actúan como herramientas de comunicación de intenciones musicales. Esta tesis presenta los resultados de una investigación centrada en los movimientos corporales complementarios observados en intérpretes de flauta traversa, analizando la relación entre estos y la variación expresiva de los aspectos musicales primarios y de fraseo. Este estudio se realiza para el caso particular de intérpretes de flauta traversa. La metodología se basa en el registro de material audiovisual correspondiente a interpretaciones realizadas por tres flautistas profesionales del mismo extracto de una pieza musical, para luego llevar a cabo un análisis que vincula la evolución temporal y cualidades dinámicas del movimiento corporal con la variación de aspectos musicales y otros eventos particulares. Esta investigación concluye que el origen de la producción de movimientos auxiliares en intérpretes de flauta traversa, gestos en los cuales subyace el elemento expresivo, no está en la aleatoriedad sino que se manifiestan más bien como parte de una estructura que es reflejo de la intencionalidad expresiva del intérprete. Se describe en esta tesis la manera en cómo actúa la correspondencia observada entre gestualidad corporal y aspectos musicales primarios y de fraseo.
uc
Energy dissipation partition walls
Entre los diferentes tipos de daño producidos en edificios debido al Terremoto de Chile de 2010 de Mw=8.8, se destaca el daño de elementos no estructurales y, particularmente, el de tabiquería. El daño de estos elementos causó la evacuación de una gran cantidad de edificios residenciales, provocando una angustia enorme en la población. Este hecho motivó el desarrollo de un modo de protección alternativo de bajo costo de la tabiquería típica compuesta por una estructura de acero cubierta por planchas de yeso cartón. Esta protección consiste en disipadores de energía metálicos en forma de U (UFP), que actúan como fusibles entre la tabiquería y la estructura. Este dispositivo, además de proteger la integridad del panel, aumenta del amortiguamiento del edificio, mejorando su comportamiento sísmico.El desarrollo de la nueva tabiquería disipadora se realizó a partir de ensayos experimentales de 7 tabiques convencionales y 3 modificados. También se realizó un extenso estudio numérico y experimental de los disipadores de acero liviano UFP. Para el último tabique disipador ensayado se obtuvo que la deformación de las planchas de yeso se redujo en un 78% con respecto a las del convencional, mientras que la energía disipada fue 5 veces mayor. Además de lo anterior, el comportamiento cíclico con “pinching effect” característico de planchas de yeso al degradarse fue prácticamente eliminado.
uc
Gesto musical, particularidad y desvío : nociones estéticas y herramientas para el análisis de grabaciones de rock.
En este trabajo se lleva a cabo una investigación sobre el gesto musical dirigida a explorar elementos musicales de particularidad y desvío, que pueden percibirse en el acto de escuchar música. El objetivo central es desarrollar maneras de proceder para identificar y caracterizar estos elementos mediante el análisis musical. Por lo tanto, se presenta una serie de reflexiones estéticas y metodológicas, que construyen el acercamiento específico al sentido en la música que aquí opera, dirigido al estudio de canciones grabadas de rock desde sus sonidos, siendo éste un campo de estudios creciente a nivel mundial. Se procede complementando la atención primaria en los sonidos musicales con una conceptualización filosófica, pues ambos son constituyentes esenciales de la disciplina estética. Así, la reflexión sobre particularidad y desvío en el dominio del gesto musical, junto con la teoría ecológica de la percepción y fundamentos sobre el arte, el análisis y la escucha, provenientes de varias disciplinas, se instalan para guiar el análisis.Los conceptos estudiados permiten comprender qué es lo que sustenta la pluralidad de interpretaciones, la expansión de sentido y una conexión intensificada con la materia, la resonancia y la experiencia musical. Se demuestra que tales posibilidades pueden ser proporcionadas por eventos musicales desestabilizadores, el desvío a la norma, lo extraño, lo inusual, lo móvil y lo abierto, en contraste – implícito o no – con normas referenciales, todo para ser analizado en términos de ‘estilo’. Se comprueba en la práctica analítica la premisa de la percepción de la diferencia, y, específicamente, de la particularidad y el desvío como dominios de la significancia y productividad musicales. Las herramientas analíticas se despliegan en dos lecturas de canciones específicas: (1) El estudio de la repetición; (2) Palabra y sonido en la performance vocal. Se estudian estos dos asuntos sin descartar otras posibilidades para futuras ocasiones, a partir de los mismos fundamentos, y considerando también que en todas se cruza un rango mayor de importantes herramientas: timbre, textura, capas funcionales, performance instrumental, espacialización en el espacio estéreo, armonía, melodía, ritmo, espectros, patrones y grooves.
uc
La regulación del transporte de L-arginina vía HCAT-1 por insulina involucra activación diferencial de los subtipos A y B de receptores de insulina y receptores de adenosina en células endoteliales de vena umbilical humana de diabetes gestacional.
Diabetes gestacional (DG) aumenta el transporte de L-arginina en la macrocirculación de la placenta. Insulina activa receptores de insulina (IRs) los cuales estimulan el transporte de L-arginina via transportadores de aminoácidos catiónicos tipo 1 humano (hCAT-1) y la síntesis de óxido nítrico en células endoteliales de la vena umbilical humana (HUVEC) de embarazos normales, pero reduce el aumento inducido por DG sobre el transporte de L-arginina. Este efecto de insulina podría resultar de una expresión y activación diferencial de las isoformas A (IR-A) y B (IR-B) del receptor de insulina, involucrando mecanismos transcripcionales asociadas a la activación de la proteína específica 1 (Sp1). Como se ha propuesto que los efectos biológicos de insulina son regulados por receptores de adenosina, en este estudio se analizó si el aumento de la expresión y actividad de hCAT-1 causado por DG es bloqueado por insulina mediante activación diferencial de IR-A y/o IR-B, un mecanismo regulado por activación de receptores de adenosina en cultivos primarios de HUVEC.La actividad del transporte de L-arginina, la expresión de hCAT-1 y la unión de Sp1 están aumentadas en DG, efecto que es revertido por insulina. El efecto de insulina en DG requirió de la actividad de receptores de adenosina A1, un fenotipo que fue similar al observado en células knock-down para IR-B. En HUVEC normales, insulina aumentó la actividad del transporte de L-arginina, la expresión de hCAT-1 y la unión de Sp1 al promotor de SLC7A1, efectos que requirieron de la actividad del receptor de adenosina A2A. Sin embargo, el efecto de insulina fue bloqueado en HUVEC knock-down para IR-A y/o IR-B. En conclusión, insulina revierte el efecto de diabetes gestacional vía IR-A sobre la actividad y expresión de hCAT-1, un mecanismo dependiente de receptores de adenosina A1 en HUVEC de DG. Sin embargo, insulina aumenta la actividad y expresión de hCAT-1, dependiendo de la actividad de receptores de adenosina A2A en HUVEC de embarazos normales.
uc
Patrones de diversidad alfa, beta y gama en sistemas insulares.
La ecología de comunidades y la biogeografía buscan entender los procesos que determinan los patrones en la naturaleza, pero generalmente a distintas escalas espaciales y enfatizando diferentes procesos. La ecología de comunidades por lo general se ha centrado en los efectos de los procesos de selección a pequeña escala, mientras que la biogeografía se ha enfocado en los efectos de la dispersión y especiación a gran escala, aunque recientemente han convergido a una escala regional, donde se tienen en cuenta cuatro procesos generales: selección, deriva ecológica, dispersión y especiación. En este sentido, descomponer la diversidad regional (diversidad γ) en sus componentes α, que representa la diversidad local y β, que da cuenta de la variación en la composición de especies, ayuda a entender los vínculos entre las diferentes escalas espaciales y como esta influye en los patrones de diversidad.Los archipiélagos son sistemas relativamente bien estudiados para los cuales existe una considerable base empírica y teórica, están compuestos por unidades discretas (islas), cuantificables, numerosas y variables en tamaño, forma y distancia, lo cual los hace un sistema idóneo para entender cómo interactúan diferentes factores tales como: el tamaño, la heterogeneidad, la configuración espacial, el aislamiento y el pool continental, que dan cuenta de los cuatro procesos ya mencionados. En esta tesis se estudiaron las causas de los patrones de diversidad alfa, beta y gamma en sistemas insulares a dos escalas, intra archipiélagos, es decir entre islas de un mismo archipiélago (capitulo 1) e inter archipiélagos, es decir entre archipiélagos (capitulo 2 y 3). Para esto utilizamos la diversidad de mamíferos terrestres no voladores de 21 archipiélagos (155 islas) ubicados alrededor del mundo.Nuestro estudio muestra que esta nueva aproximación puede ayudar a entender mejor los procesos detrás de las relaciones entre diferentes factores y los componentes de la diversidad. A menor escala, es decir entre islas de un mismo archipiélago (capitulo 1), los factores relacionados con los procesos de selección, como el área, la diversidad de hábitats y el tamaño corporal, tienen un mayor efecto que los relacionados con dispersión (distancia al continente y distancia entre islas), mientras que a mayor escala (entre archipiélagos, capitulo 3), la dispersión cobra mayor relevancia y los patrones de diversidad pueden ser explicados por los efectos conjuntos de los factores relacionados con procesos de dispersión entre las islas, que dependen de la configuración espacial y procesos de selección, relacionados con la heterogeneidad del sistema. A nivel inter-archipiélagos, bajo el modelo de colonización neutral (capítulo 2), los patrones de diversidad se vieron afectados por la tasa de migración, el tamaño y topología de los archipiélagos, lo cual nos indica que los procesos de deriva ecológica pueden generar diferentes patrones a través de los efectos de estos factores. Sin embargo, los resultados indican que los procesos no-neutrales disminuyen la riqueza de especies presentes en una metacomunidad y aumentan la diferenciación entre las comunidades locales (diversidad β, capitulo 3).
uc
Los mutilados : un proceso de creación dramatúrgica a partir de fuentes documentales.
La siguiente Memoria da cuenta del proceso creativo-investigativo de la obra dramática de tema histórico Los Mutilados, creada a partir de material documental. En este documento se presenta una revisión cronológica, tanto descriptiva como analítica del recorrido creativo, sus fuentes históricas y documentales, sus metodologías y referentes, al tiempo que se consignan y desarrollan las principales problemáticas y giros creativos que se presentaron durante esta indagación, con énfasis en los aspectos que dicen relación con la utilización de material documental al servicio de la creación dramatúrgica y la convivencia de estos con material ficcional al interior de un mismo texto dramático.
uc
Los Niños del Cid : galopar entre el héroe y la transmedialidad.
Esta investigación entrelaza el análisis de la figura del héroe, extraída de la obra Poema del Cid, con la creación de un texto dramático y su puesta en escena. Se desarrollan, en una primera parte, los fundamentos psíquicos y míticos del héroe y las posibilidades dramáticas de El Cid para rescatar su impronta épica en el mundo contemporáneo. En una segunda parte se describe el proceso de escritura basado en El Cid, cuyo resultado es el texto Los Niños del Cid, abordando su poética, estructura dramática y las diez secuencias-escenas que lo conforman. El presente documento se refiere al proceso de traducción escénica de la Compañía de Teatro Los Niños del Cid, que consiste en la ejercitación, producción y realización de una puesta en escena transmedial entendido como un proceso artístico multidisciplinario, es decir que genera un cruce de disciplinas artísticas (teatro, artes visuales, música y tecnología), plasmando de esta manera características que posee el discurso en sí, vale decir la ausencia y la necesidad de recuperación del héroe en una época actual que definiremos y fundamentaremos como transmoderna, en otras palabras la estructuración de una maquinaria expresiva transmedial está en estrecha relación con el mundo contemporáneo en el que nos encontramos actualmente, la proliferación de los medios de comunicación y los estímulos que de éstos nace, y esta característica tomada del mundo contemporáneo es cruzada con una historia épica, generando una tensión dramática que hace validarla también en un mundo contemporáneo, es decir permitir que pueda existir en una sumatoria medios actuales, y no sólo eso, si no que la rescata, sumergiéndose en esa época e interpretándola mediante un tratamiento escénico que estructura diferentes medios expresivos, teniendo por principal, el medio escénico.
uc
Papel de las neuronas glutamatérgicas del área del hipotálamo lateral en la recaída a cocaína inducida por estrés.
La búsqueda compulsiva de drogas de abuso lleva consigo cambios fisiopatológicos en el cerebro de quién es adicto. Un adicto que lleva largos periodos de abstinencia, puede recaer a la búsqueda de drogas, ya sea por claves ambientales, por consumo de una nueva dosis de droga o por estímulos estresantes. En los últimos años se ha avanzado mucho en el conocimiento de los mecanismos neurobiológicos que subyacen a la adicción. Sin embargo, aún no se conocen el/los mecanismo(s) que determinan las alteraciones neuroquímicas responsables de la recaída a la búsqueda de drogas por estímulos estresantes. Las drogas psicoestimulantes, tienen como blanco de acción, principalmente el Área del Tegmento Ventral (VTA) del cerebro medio, específicamente las neuronas dopaminérgicas que conforman el sistema dopaminérgico (DAérgico) mesocorticolímbico inervando la corteza prefrontal y estructuras límbicas sub-corticales que contribuyen a la adquisición y expresión de conductas relacionadas con la recompensa, novedad, motivación y con el poder adictivo de las drogas de abuso. El sistema DAérgico mesocorticolímbico también es activado por estrés a través de mecanismos mediados por la liberación de la hormona liberadora de corticotrofina (CRH). El sistema CRH se ha involucrado en la recaída a la búsqueda de droga gatillada por estrés. Se ha mostrado que un estímulo estresante induce la liberación de CRH en VTA y que éste gatilla un aumento de glutamato en este núcleo, sólo en ratas con experiencia a cocaína. La evidencia indica que CRH induce la liberación de glutamato y la consecuente liberación aumentada de dopamina, a través de la activación de receptores CRH-R2.El VTA recibe aferencias glutamatérgicas desde regiones corticales y subcorticales. La mayor aferencia glutamatérgica al VTA, de origen subcortical, se origina en el área del hipotálamo lateral (HLA). Se ha mostrado que la aferencia glutamatérgica del HLA al VTA es crítica en la recaída por claves ambientales y que la exposición a estímulos estresantes potencia la recaída al consumo de drogas inducida por claves ambientales. En base a los antecedentes disponibles, surgen las siguientes preguntas: ¿Desde qué núcleo proviene el glutamato liberado por la acción de CRH en el VTA?, ¿Qué aferencia(s) glutamatérgica(s) al VTA, expresa(n) CRH-R2? Para contestar estas preguntas se propuso la siguiente hipótesis de trabajo: “Las aferencias glutamatérgicas del área del hipotálamo lateral al VTA, juegan un papel clave en la recaída al consumo de cocaína inducida por estrés”. Para desarrollar esta hipótesis en primer lugar se determinó si los terminales glutamatérgicos provenientes del HLA expresan el receptor CRH-R2 utilizando una preparación sinaptosomal del VTA de ratas e inmunofluorescencia para CRH-R2, Orexina (Orx) como marcador de neuronas del HLA y vGluT2. En segundo lugar se analizó la liberación de glutamato y dopamina en el VTA mediante microdiálisis in vivo en ratas que recaen a la búsqueda de droga por estrés usando el paradigma de preferencia de lugar condicionado (CPP). En Tercer lugar se determinó la participación de las neuronas del HLA en la recaída al consumo de cocaína inducido por estrés inactivando reversiblemente las neuronas del HLA.Los resultados muestran que la estimulación del HLA aumenta los niveles extracelulares de glutamato en el VTA confirmando la existencia de una conexión anatómica de fenotipo glutamatérgico entre el HLA y el VTA. Además, mediante triple inmunofluorescencia para vGluT2, CRH-R2 y OrxA en sinaptosomas de VTA de ratas control, se documentó la existencia en el VTA de terminales glutamatérgicos que expresan CRH-R2 y OrxA. Estos resultados sugieren fuertemente que los terminales glutamatérgicos del VTA que expresan CRH-R2 provienen del HLA. Finalmente, la inactivación reversible de las neuronas del HLA con baclofeno/muscimol (B/M) inhibió significativamente la recaída a la búsqueda de cocaína inducida por estrés en ratas que han sido entrenadas en CPP. Datos preliminares muestran que la inyección de B/M en el HLA bloquea la liberación de glutamato en el VTA. En conclusión, los resultados de la tesis muestran que la vía glutamatérgica del HLA al VTA expresa receptores CRH-R2 en los terminales nerviosos en el VTA. Además, sugieren que la vía HLA-VTA juega un papel clave en la recaída a la búsqueda de cocaína inducida por estrés.
uc
Physiology of oxygen consumption by an industrial strain of saccharomyces cerevisiae under enological fermentation conditions.
Las adiciones discretas de oxígeno juegan un papel crítico en el proceso de fermentación del vino. Sin embargo, hasta ahora, no se han llevado a cabo estudios de biología de sistemas, acerca de cómo el oxígeno modifica el metabolismo de la levadura vínica bajo condiciones de fermentación vínica. Proponemos aquí la primera aproximación sistémica para el entendimiento cuantitativo del impacto del oxígeno sobre la fisiología de la levadura vínica, bajo condiciones enológicas. Para este fin, los efectos del oxígeno disuelto en el transcriptoma, fluxoma y metabóloma sobre la fisiología de la levadura vínica fueron evaluados. Simulamos el rango de concentraciones de oxígeno que se producen después de un remontaje enológico, burbujeando cultivos continuos limitados en nitrógeno con mezclas gaseosas oxígeno-nitrógeno, para alcanzar concentraciones crecientes de oxígeno en estado estacionario. Cuando el oxígeno disuelto aumenta desde 1.2 a 2.7 mM (20 ºC), el metabolismo de la levadura cambia desde totalmente fermentativo a mixto respiro-fermentativo. Esta transición se caracteriza por un cambio en la operación de ciclo del ácido tricarboxílico y el aumento del transporte de NADH desde el citosol a la mitocondria. Sin embargo, la producción fermentativa de etanol sigue siendo el principal sumidero del NADH citosólico para todas las condiciones con oxígeno, sugiriendo la limitación de la reoxidación mitocondrial de NADH como la principal causa del efecto Crabtree, en lugar de la represión por glucosa. Esto es reforzado por la inducción de varios genes respiratorios clave por oxígeno, a pesar de la alta concentración de azúcar.Por otro lado, simulamos las típicas operaciones enológicas de adición de oxígeno realizando un impulso de oxígeno puro por 30 segundos, en condiciones anaeróbicas, utilizando cultivos continuos limitados en nitrógeno. Genes respiratorios y de biosíntesis de ergosterol fueron inducidos después del impulso de oxígeno. Además, genes involucrados en remodelamiento de pared celular y estrés oxidativo entre otros, fueron significativamente inducidos y/o reprimidos por el impulso de oxígeno. Los cambios en la expresión de estos genes son respuestas coordinadas que comparten elementos comunes a nivel de regulación transcripcional. Los resultados de este estudio indican que la respiración mitocondrial es responsable de parte sustancial de la respuesta al oxígeno en células de levadura durante la fermentación alcohólica. Además, genes involucrados en consumo de prolina, remodelamiento de pared celular y estrés oxidativo fueron significativamente inducidos y/o reprimidos, tanto a corto como a largo plazo por oxígeno, destacando el papel dual del oxígeno en “crear o destruir vinos”. Estos hallazgos facilitaran el desarrollo de estrategias de adición de oxígeno para optimizar el desempeño de la levadura en fermentaciones industriales.
uc
Stiffness evolution mechanism of recycled mixes with foamed bitumen and cement
El reciclado con asfalto espumado es una promisoria técnica de rehabilitación de pavimentos asfálticos que ha sido utilizada ampliamente a nivel mundial desde 1980. Laa mezclas recicladas con asfalto espumado son preparadas utilizando asfalto reciclado, material granular recuperado, asfalto espumado, filler activo y agua. Tradicionalmente la caracterización de las mezclas con asfalto espumado ha sido realizada en probetas curadas de forma acelerada, lo cual representa las propiedades de las mezclas luego de un par de meses desde su construcción (mediano plazo) período. Sin embargo, no hay suficiente información respecto de las propiedades mecánicas de estas mezclas en el corto plazo, es decir inmediatamente después de la construcción, ni en el largo plazo, es decir después de un par de años y después de que un gran número de cargas de tránsito ha sido aplicado. Los Proyectistas necesitan conocer esta información para poder diseñar apropiadamente los espesores de un pavimento con capas recicladas con asfalto espumado y para definir correctamente con contenidos de asfalto y filler activo que constituyen la mezcla.En estas mezclas, el principal agente estabilizador es el asfalto y la mayoría de las investigaciones han estado focalizadas en la caracterización de las propiedades de la mezcla cuando este aditivo es incorporado, además de establecer metodologías para optimizar este contenido. Sin embargo las mezclas con asfalto espumado también utilizan algún tipo de filler activo para modificar la fracción fina de la granulometría de la mezcla recuperada y/o para reducir la susceptibilidad mecánica a la presencia de humedad. Mientras la mayoría de los países utilizan cemento como filler activo, otros utilizan Cal, Ceniza Volante u otros. Por otra parte, mientras el contenido de filler activo es entre 40% – 80% de la cantidad en peso del contenido de asfalto utilizado, a la fecha no existe información concreta respecto del rol que el filler activo cumple en las propiedades y comportamiento de las mezclas estabilizadas con asfalto espumado. En esta investigación, se estudia la evolución de la rigidez y resistencia de estas mezclas a lo largo de toda su vida útil, es decir, en el corto, mediano y largo plazo. Asimismo, se estudia en detalle la contribución del cemento en las propiedades de estas mezclas, dado que es identificado como una de las variables que más afectan las propiedades mecánicas de las mezclas con asfalto espumado.Los resultados indicaron que en el corto plazo estas mezclas necesitan de una significante cantidad de tiempo para adquirir resistencia, la cual puede llegar a ser tan amplia como 12 meses en condiciones de curado normales. Si la ubicación del proyecto es en áreas secas, entonces el proceso de curado toma solo un par de meses. Sin embargo, si la zona donde se emplaza el proyecto es húmeda y el drenaje es pobre, entonces es probable que la mezcla con asfalto espumado no pierda humedad y por lo tanto no adquiera resistencia. En este caso, las propiedades mecánicas de este tipo de mezclas no serán sustancialmente mejores que las que se obtendrían con el mismo material reciclado sin la adición del asfalto espumado. Los análisis conducentes a establecer las propiedades de largo plazo indicaron que una vez que las mezclas con asfalto espumado adquieren rigidez, esta se mantendrá constante o disminuirá según el estado de tensiones que tenga la capa. Si el nivel de tensiones es menor que un valor referencial, la rigidez se mantendrá constante a un nivel muy parecido al de la rigidez máxima. Por el contrario si el estado de tensiones es mayor al valor referencial, la rigidez disminuirá conforme la capa estabilizada es sometida a cargas de tránsito. Se pudo establecer que a medida que el estado de tensiones es mayor, más rápido disminuirá la rigidez de la mezcla.Por otra parte, el estudio del rol que juega el cemento en estas mezclas indicó que el cemento es tan importante como el asfalto espumado en términos de las propiedades de estas mezclas. Mientras el cemento es el principal responsable de proveer resistencia y rigidez a estas mezclas en el corto y mediano plazo, el asfalto es capaz de proveer flexibilidad y durabilidad en el largo plazo. El trabajo conjunto de ambos es el que permite que estas mezclas sean capaces de resistir las cargas de tránsito. Finalmente este trabajo de investigación proporciona recomendaciones concretas respecto al método de diseño de mezclas tradicionalmente utilizado, además de proveer con una herramienta para estimar la rigidez de largo de plazo de mezclas estabilizadas con asfalto espumado y cemento.
uc
Considerations of ice morphology and driving forces in freeze concentration
La morfología del hielo (tamaño y forma) influye en forma decisiva en la apreciación sensorial, textura y calidad de numerosos alimentos congelados. También es importante la morfología del hielo en algunos procesos tecnológicos como es la liofilización y la concentración por congelación, donde influye en la eficiencia de estos procesos. El objetivo general de esta tesis fue incrementar el conocimiento acerca del control de la morfología de la fase hielo en la congelación de alimentos y otros procesos relacionados como la concentración por congelación. La congelación en alimentos y en soluciones, así como los métodos de observación y medición de la morfología del hielo fueron analizados, y el rol de la morfología del hielo en algunas aplicaciones tecnológicas fue discutido. Especial atención fue puesta en la arquitectura o arreglo espacial de elementos en la estructura de la fase congelada y el rol en la eficiencia de los procesos de concentración por congelación.Cuando un núcleo de hielo comienza a crecer en una solución, los solutos son rechazados desde la fase hielo y se acumulan en la interfase sólido-líquido, formando un sistema hidráulico en la matriz congelada (fase hielo) con venas o canales entre los cristales de hielo ocluyendo la solución concentrada. Técnicas asistidas (tal como el ultrasonido o agentes de nucleación del hielo) han probado ser importantes en proveer una morfología de la fase congelada que mejora la eficiencia de la concentración por congelación. Otras alternativas son el uso de fuerzas impulsoras externas tales como el vacío o la centrifugación en la recuperación de soluciones concentradas. Se propusieron dos novedosas técnicas (vacío o centrifugación) con el fin de utilizar convenientemente este sistema hidráulico para mejorar la eficiencia en la separación de solutos en los procesos de concentración por congelación, utilizando soluciones acuosas de sacarosa como muestras modelo.Mediante la aplicación de vacío (80 kPa), la eficiencia de la concentración por congelación fue significativamente mejorada por sobre las condiciones atmosféricas mostrando una mayor recuperación de soluto, aproximadamente 0,5 kg de sacarosa obtenidos por 1 kg de sacarosa inicial en comparación con los valores de recuperación entre 0,16 y 0,3 kg / kg para los tratamientos atmosféricos. Por otra parte, mediante la aplicación de centrifugación, se obtuvo una alta recuperación de solutos, llegando a aproximadamente 0,73 kg de sacarosa obtenidos por 1 kg de sacarosa inicial con 1600 de fuerza centrífuga relativa (FCR), comparado al valor de recuperación 0.5 kg/kg usando una menor velocidad de centrifugación (800 FCR). La alta eficiencia de solutos usando técnicas asistidas en concentración por congelación es una consecuencia de usar una fuerza impulsora externa que mejora la separación natural en el descongelado gravitacional y toma ventaja de las características microestructurales de la fase congelada. Podemos concluir que el vacío o la centrifugación en concentración por congelación es una efectiva técnica asistida para mejorar la eficiencia de separación.
uc
Recycling of fines from construction and demolition concrete wastes
El hormigón es el material manufacturado en mayor cantidad en el mundo en la actualidad, con una producción que excede las 30,000 millones de toneladas al año. Como tal, su impacto sobre el medio ambiente es materia de constante preocupación. El reciclaje de los residuos de hormigón es considerado en la literatura como una vía efectiva para reducir su huella ambiental. Sin embargo, más del 50% del material obtenido del chancado de hormigones de demolición para la producción de agregados gruesos reciclados es un material de graduación fina de limitado uso en hormigones convencionales, que es generalmente descartado o utilizado en aplicaciones de bajo valor. El desarrollo de nuevos materiales de construcción basados en estos finos podría aumentar significativamente la fracción de residuos de hormigón que pueden ser reciclados. En esta tesis se exploraron dos alternativas de reciclaje basadas en dos niveles distintos de procesamiento de los residuos, estudiando cómo los restos de pasta de cemento hidratada presentes en los finos contribuyen a las propiedades de ingeniería de los materiales reciclados obtenidos en cada caso, y caracterizando el efecto que los factores materiales y de proceso asociados a cada alternativa tienen sobre estas propiedades, con el fin de proveer conocimiento relevante para su desarrollo, optimización y aplicación futura.La primera alternativa explorada fue la fabricación de materiales de baja resistencia controlada basados en agregados finos de hormigón reciclado sin procesamiento adicional. Se desarrolló un método mejorado de diseño de mezclas que facilita el uso de diseños experimentales sencillos para modelar los efectos que las proporciones de la mezcla tienen sobre las propiedades de los materiales resultantes. La comparación de modelos obtenidos para materiales basados en distintos constituyentes permitió evaluar la contribución relativa de cada constituyente a las prestaciones del material. En comparación con los materiales basados en agregados finos vírgenes, los basados en agregados finos reciclados exhiben mejores características de fluidez, segregación y asentamiento, logrando resistencias a compresión dentro de los límites esperados.La segunda alternativa explorada fue la producción de materiales cementicios reactivados basados en el comportamiento hidráulico que exhiben los productos obtenidos de la deshidratación de pastas de cemento hidratadas. Se desarrolló un programa experimental en dos etapas para primero: identificar factores materiales y de proceso que afecten significativamente a la resistencia a compresión de pastas de material reactivado, y segundo: caracterizar los efectos de factores seleccionados sobre un conjunto más amplio de propiedades. Los resultados de la primera fase muestran que es posible aumentar significativamente la resistencia desarrollada por las pastas ajustando la temperatura de deshidratación y el nivel de reemplazo de material reactivado por material cementicio suplementario en las nuevas mezclas. Los resultados de la segunda etapa muestran que los efectos de la temperatura de deshidratación se correlacionan con la concentración de una forma estabilizada de α’-C2S presente en el material reactivado, formada durante el proceso de deshidratación. Esto permitió concluir que la ganancia de resistencia del material reactivado se debe principalmente a la formación de C-S-H por hidratación de este polimorfo de C2S. Adicionalmente, los resultados de la segunda fase muestran, por primera vez, que los materiales cementicios reactivados pueden ser usados para la producción de morteros con resistencias a compresión que superan los 20 MPa a 28 días de hidratación.
uc
Competencia de mecanismos bióticos y abióticos en el transporte de arsénico en el río Loa : efectos de macrófitas en los flujos y acumulación de arsénico
Este trabajo analizó y comparó los sedimentos fluviales de dos sitios vecinos en la sección baja de la cuenca del río Loa en la árida zona norte de Chile, la cual presenta un enriquecimiento de As debido a causas naturales y antropogénicas. El estudio seleccionó estos sitios debido a que permite contrastar el efecto de la presencia o ausencia de vegetación y contenido de materia orgánica (MO) en sedimentos sobre el destino del As en ambientes fluviales. Los dos sitios corresponden al tranque Sloman (920 msnm), el cual no posee plantas acuáticas y posee un bajo contenido de MO (2,4%) en los sedimentos, y el Oasis de Quillagua (806 msnm) ubicado a 23 km aguas abajo del primero, el cual posee abundantes plantas acuáticas y sedimentos con alto contenido de MO (6,2%). El estudio mostró un enriquecimiento preferencial de As en los sedimentos del sitio de Quillagua y con un patrón de co-depositación significativamente diferente comparado al sitio de Sloman. La concentración de As en sedimentos fue menor en Sloman (262 mg/kg de peso seco) en comparación con Quillagua (1528 mg/kg de peso seco), siendo en promedio, seis veces más concentrado. El análisis de clúster y correlación mostró un patrón de asociación de As con metales distintos entre ambos sitios.Mientras en Sloman se encontró una asociación significativa de As con Ca (r = 0,63) y Sr (r = 0,54), el análisis en Quillagua mostró una fuerte asociación del As con Mn (r = 0,91) y la MO (r = 0,85). El análisis de extracciones secuenciales reveló una mayor cantidad de As fácilmente intercambiable en los sedimentos superficiales de Sloman (12% del total, 45 mg/kg de peso seco) en comparación con Quillagua (3% del total, 40 mg/kg de peso seco). Estos resultados indican que la vegetación y la MO controlan significativamente la inmovilización y acumulación de As en la sección baja de la cuenca del río Loa. La asociación diferencial de As en estos sitios implicaría distintos comportamientos en la movilidad del As. El As asociado a sitios con vegetación como Quillagua sería menos móvil durante la estaciones con eventos de crecidas en comparación al sitio del tranque de Sloman que posee sedimentos finos y de fácil re-suspensión. Esto indicaría un rol de barrera química y física de las plantas que regula el flujo del As aguas abajo. Palabras Claves: Contaminación de ríos, Metales traza, Transporte fluvial, Materia orgánica, Plantas, Fitoestabilización, Sedimentos, Quillagua, Tranque Sloman.
uc
Problemas comunicacionales en el proceso de instalación de un nuevo gobierno
En estos primeros 100 días se suelen cometer errores que se transforman en conflictos mediáticos de diversa magnitud. Según la investigación realizada -tomando como referencia las noticias conflictivas publicadas por el Diario La Tercera durante la instalación de los gobiernos de Sebastián Piñera, Michelle Bachelet (en su primer período) y Ricardo Lagos-, los temas que causan mayores divergencias comunicacionales son los vinculados a: el 21 de mayo; la agenda de gobierno; las características, imagen y estilo del Presidente; los conflictos de interés; los cuestionamientos técnicos; los derechos humanos; los discursos presidenciales; las expectativas generadas; el nombramiento de autoridades; el alza de impuestos; las promesas incumplidas; la relación con el oficialismo y el desempeño e imagen del gabinete. Con estas temáticas ya conocidas, el objetivo práctico de esta investigación es que gobiernos venideros puedan trabajar en ellas, anticiparse y prevenirlas, con el fin de aprovechar el estrecho margen que posibilita la disminución de acontecimientos indeseados por medio del análisis de malas experiencias, y dar pie así al fortalecimiento de la imagen gubernamental y la transmisión de logros e informaciones relevantes, las cuales muchas veces pasan inadvertidas para la ciudadanía ante el giro de la agenda mediática hacia diversos conflictos, que eventualmente podrían no existir, evitarse o, al menos, aminorar sus efectos.
uc
Los colores del museo viajan por la región
Las posibilidades que ofrecen las nuevas tecnologías de información y comunicación para los museos, permiten la renovación en cuanto a sus actividades educativas de dinámicas diseñadas principalmente para un público infantil y juvenil, especialmente por tener éstos una disposición positiva hacia los nuevos medios. Esta expansión del museo físico a plataformas como internet, genera la posibilidad de acceso a las colecciones por parte de sectores privados de estos recursos culturales y que de existir una adecuada estrategia de mediación, abre un atractivo canal de comunicación de estas instituciones con su público. A partir de este indicio, se presenta la problemática de la itinerancia de arte chileno del Museo Artequin Viña del Mar, como una potente instancia de renovación de este tipo de programas, pues los recursos educativos que posee resultan aun incompletos para llevarlo de manera eficiente a contextos de educación formal. Con el fin de darle una solución al problema antes planteado, se diseña una propuesta de mediación utilizando recursos interactivos dispuestos en internet para niños de enseñanza básica, complementando así la visita del museo y sus obras a los colegios y escuelas.
uc
Hormonal regulation during initial berry development in grapevine.
Vitis vinifera es una de las especies más cultivadas del mundo, La mayor parte de la investigación se ha centrado en la maduración del fruto, y se conoce poco de los estados iniciales del desarrollo de la baya, el cual comprende las primeras dos semanas después de la floración. Durante esta fase ocurren procesos clave: polinización, fertilización y cuaja, los cuales darán lugar a un fruto semillado. La cuaja se define como un rápido crecimiento del ovario producto de la polinización y fertilización. Debido a que la cuaja ha sido descrita como una de las etapas más sensibles a distintos tipos de estrés durante el desarrollo completo del fruto, esta investigación se enfocó en identificar los principales factores que la determinan.En este trabajo se han realizado análisis de expresión global y perfil hormonal para dilucidar los principales factores que afectan a la cuaja. El análisis de RNA-seq fue realizado en cuatro puntos entre polinización y cuaja, revelando patrones dinámicos transientes durante el desarrollo del fruto. Interesantemente, la expresión de un importante número de genes se encontraba reprimida después de la fertilización. El perfil hormonal indicó que las giberelinas eran las hormonas activas con niveles más altos durante antesis, mientras que auxina, trans-zeatina y ABA mostraron niveles más altos durante la cuaja. Estos resultados podrían indicar un nuevo modelo del desarrollo inicial del fruto, diferente a los previamente descritos en otras especies de estudio como tomate y Arabidopsis.Para poder confirmar la función de algunas hormonas seleccionadas presentes durante el desarrollo inicial del fruto, se inhibió la síntesis de giberelinas mediante el compuesto Paclobutrazol, y por otro lado, la inhibición de las respuestas inducidas por auxina mediante el tratamiento con IAA-Trp. Estos estudios demostraron que tanto la división celular como el desarrollo del mesocarpo se vieron fuertemente afectados, confirmando que ambas hormonas son críticas para el establecimiento de la cuaja en vid. En conjunto, los datos de transcriptoma y perfil hormonal proveen por primera vez patrones dinámicos de expresión génica que pueden ser asociados a biosíntesis de hormonas, y el efecto de éstas en el desarrollo del mesocarpo durante los estadíos iniciales del fruto de vid. Además se demuestra que la presencia, así como el crosstalk entre auxinas y giberelinas es crucial para el establecimiento de la cuaja en vid.
uc
Associations between habitat conditions, sociality, and brain organization in octodontid rodents.
Nuestro conocimiento sobre la evolución del comportamiento social en roedores octodóntidos es aún fragmentario. La información disponible indica que las especies filogenéticamente basales son solitarias, mientras que las más derivadas tienden a ser sociales. Sin embargo, la información sobre la estructura social disponible para varias especies es anecdótica, lo cual dificulta el establecimiento de conclusiones robustas sobre la evolución del comportamiento social en este clado. Este es el primer estudio que cuantifica la actividad, uso del espacio, y comportamiento social del degú costino (Octodon lunatus), una especie derivada de octodóntido. Durante noviembre y diciembre de 2010 y 2011 se utilizaron métodos de captura-recaptura y telemetría para cuantificar el patrón diario de actividad superficial, ámbitos de hogar, solapamientos entre ámbitos de hogar, y uso compartido de parches de descanso y nidificación en una población costera localizada en el centro-norte de Chile.La actividad de O. lunatus, medida como desplazamientos individuales entre localizaciones consecutivas, mostró una tendencia estadísticamente no significativa a ser mayor en horas de la noche. Durante el día los animales usaron 1 a 3 sitios de descanso y anidamiento asociados con una alta cobertura arbustiva, donde Pouteria splendens (lúcumo) fue la especie dominante. Machos y hembras compartieron estos sitios de descanso en múltiples ocasiones. El solapamiento entre los ámbitos de hogar tendió a ser mayor en animales que además compartieron sitios de descanso comparado con animales que no compartieron estos sitios. En base al uso compartido de refugios se identificó 1 grupo social en 2010 y 4 grupos en 2011. La composición de estos grupos fue de 1 a 3 hembras adultas y de 1 a 2 machos adultos (2 a 4 adultos en total). Globalmente, los resultados indicaron que O. lunatus muestra algún grado de sociabilidad, observación que apoya una tendencia en la cual el comportamiento social es más frecuente en especies filogenéticamente derivadas de octodóntidos.
uc
Causes and consequences of nitrogen limited chronosequences : evidence from the Andean dry puna.
Se ha establecido que en ambientes mésicos el cambio en el contenido de nutrientes durante el desarrollo a largo plazo de los suelos determina los cambios en procesos ecosistémicos tales como la productividad primaria y el reciclaje de nutrientes, así como en la composición y diversidad de plantas y microorganismos del suelo. Por lo tanto, suelos jóvenes limitados por Nitrógeno (N) están dominados por plantas de crecimiento rápido y rápida descomposición, y en estados tardíos de desarrollo el Fósforo (P) se vuelve limitante y las especies cambian a estrés-tolerantes, de crecimiento lento y bajas tasas de descomposición. Sin embargo, estudios recientes en ambientes áridos muestran que la limitación por N domina los procesos ecosistémicos, por lo que la trayectoria de desarrollo de los suelos podría ser significativamente distinta a lo observado en regiones mésicas. En este trabajo se evaluaron las causas y consecuencias del desarrollo de los suelos en ambiente áridos limitados por N y su efecto sobre las comunidades de plantas y microorganismos del suelo a lo largo de tres cronosecuencias de c. 20,000 años con suelos derivados a partir de diferente material parental en la Puna seca de los Andes centrales de Bolivia. Los resultados confirman que el N es limitante a lo largo del gradiente de edad, mientras que el P se mantuvo sin cambios, este patrón se mantuvo independientemente del origen geológico de los suelos de las cronosecuencias.El incremento en la razón N:P durante el desarrollo de los suelos determinó los incrementos en la riqueza de especies, la descomposición y la translocación de nutrientes en plantas que se observaron en las tres cronosecuencias. Las comunidades de bacterias y hongos del suelo mostraron patrones contrastantes; la abundancia de bacterias incrementó con la edad de los suelos, pero la abundancia de hongos declinó a lo largo del desarrollo de los suelos, lo que sugiere un cambio en la dominancia microbiana en relación con el cambio en la disponibilidad de nutrientes a lo largo del gradiente de edad de los suelos. En conjunto estos resultados indican que a diferencia de los ambientes mésicos, en ambientes limitados permanentemente por el agua, la limitación por N retarda el desarrollo de los suelos, y de los componentes bióticos sobre y debajo del suelo, manteniendo así a los ecosistemas en un estado de “juventud” permanente.
uc
Uso de los medios sociales Facebook y Twitter en el Programa Educativo Masivo de la política pública Chile Crece Contigo (ChCC)
En un escenario donde el acceso a internet y el uso de las redes sociales digitales es cada vez más masivo en Chile, “Uso de los medios sociales Facebook y Twitter en el Programa Educativo Masivo de la política pública Chile Crece Contigo (ChCC)” analizó a través de entrevistas y análisis de contenidos, cómo distintos actores vinculados a este sistema de protección integral a la infancia utilizan los medios de comunicación oficiales de la política, en particular, cómo emplean Twitter y Facebook. En concreto, indagó en cómo los profesionales que están a cargo del Programa Educativo Masivo (PEM) piensan e implementan la comunicación y en específico los medios sociales Facebook y Twitter; exploró cómo especialistas de la salud pública primaria de Chile Crece Contigo, de dos Centros de Salud Familiar (CESFAM) de comunas vulnerables de la ciudad de Santiago, emplean los medios masivos del PEM y, analizó el uso que los beneficiarios del mismo programa dan a los medios sociales Facebook y Twitter. Entre sus resultados encontró carencia de estrategias comunicacionales, medios de comunicación propios debilitados, falta de comunicación con los equipos ejecutores de la política y limitada presencia e interacción en redes sociales de parte del Programa Educativo Masivo en el periodo analizado. Por otro lado, se advirtió una alta participación de usuarios en el grupo de “Amigos de Chile Crece Contigo” en Facebook, un espacio apropiado por madres para preguntar, hacer peticiones, apoyarse, compartir, agradecer o denunciar, visibilizando además, parte del funcionamiento del Sistema. Entre sus resultados encontró carencia de estrategias comunicacionales, medios de comunicación propios debilitados, falta de comunicación con los equipos ejecutores de la política y limitada presencia e interacción en redes sociales de parte del Programa Educativo Masivo en el periodo analizado...
uc
Caracterización del comportamiento axial de elastómetros magnetoreológicos
Los elastómeros magnetoreológicos (MRE) son materiales compuestos por una matriz elastomérica con partículas de hierro microméricas en su interior y en proporciones de 5% a 35% en volumen. De acuerdo a resultados de la literatura estos materiales son capaces de modificar su rigidez y amortiguamiento directamente en presencia de un campo magnético. En este trabajo, se presentan los resultados obtenidos del ensayo de 12 probetas de MRE construidas en base a tres matrices elastoméricas y dos tipos de partículas en dos concentraciones distintas. Cada probeta se ensaya para distintas excitaciones sinusoidales en presencia de campos magnéticos de intensidades en el rango de 0 a 130kA=m . Los resultados obtenidos para los MRE desarrollados no presentan cambios directos de rigidez y amortiguamiento interno en presencia de un campo magnético, pero sí presentan un fenómeno de desplazamiento de la relación constitutiva fuerza-deformación paralelamente hacia la zona de tracciones, es decir, equivale a una pretensión del material.Debido a este nuevo comportamiento, la relación constitutiva fuerza- deformación del MRE deja de ser una curva única dependiente de las propiedades del material y de la solicitación, y se transforma en una curva que es controlable de acuerdo a las necesidades del sistema y características de la excitación. Dependiendo del sistema de control utilizado, se puede modificar su rigidez, su amortiguamiento, o ambos, de acuerdo a los requerimientos de diseño. Las posibles aplicaciones de un material con esta versatilidad son variadas. Específicamente, en el área de los sistemas de reducción de vibraciones, los usos potenciales más interesantes se orientan a generar sistemas de pequeña escala, por ahora, que puedan alejarse de la resonancia modificando su rigidez. La factibilidad de las aplicaciones está limitada por la escala que aún se encuentra en rangos de fuerza y deformación pequeños, en este trabajo, el rango de fuerzas va entre 8 y 100 kgf y las deformaciones axiales de los elastómeros no superan los 3;6mm. Sin embargo, existen diversas alternativas que se discuten en este trabajo para seguir avanzando en el estudio de los MRE y su comportamiento.
uc
Metodología costo efectiva para el diseño de una turbina hidrocinética de eje horizontal
Chile Posee abundantes recursos energéticos en sus mareas y canales que aún no han sido explotados. Para ponerlos a disposición de pequeñas comunidades e individuos, que es un segmento de mercado que no ha sido abordado al mismo nivel que otros de mayor envergadura, se ha diseñado y manufacturado una turbina hidrocinética de eje horizontal y flujo abierto. Esta tesis se centra en integrar y validar el método de diseño y fabricación utilizado. El dispositivo ha sido diseñado para generar 5kW en el eje de la turbina, que es aproximadamente lo que se puede extraer de flujos abiertos que circulan a 2,5m/s. El método utilizado se basa en modelos matemáticos paramétricos que permiten simular el funcionamiento de los componentes principales de manera individual y luego como un todo. El rotor tiene dos aspas y fue diseñado mediante el método BEM (del inglés Blade Element Momentum) utilizando el perfil NACA0012 como forma hidrodinámica. El generador alterno es monofásico, de flujo magnético radial, y para dimensionarlo se aplicó teoría de circuitos electromagnéticos.La turbina puede ser utilizada para cargar baterías convencionales tras convertir la energía mediante un puente de diodos y estabilizarla en un convertidor DC/DC. La batimetría y la velocidad de flujo abierto son los dos aspectos a considerar para escoger el lugar de operación de la turbina. Se detectaron aspectos del diseño y fabricación de estas turbinas que son más críticos y sobre los cuales hay que profundizar la investigación. Como resultado se obtuvo una turbina que permite validar parcialmente las simulaciones efectuadas. Como pasos futuros se debe perfeccionar la técnica de manufactura de generadores, se deben realizar más pruebas para caracterizar la turbina de manera experimental, por ejemplo en un canal de pruebas estándar y se deben mejorar los software de diseño para hacerlos accesibles a usuarios no expertos.
uc
Mecanismos de incentivo para fomentar los programas de eficiencia energética en las distribuidoras de energía eléctrica
En el contexto internacional, la eficiencia energética (EE) ha tomado cada vez más relevancia como fuente energética. Las empresas distribuidoras de electricidad juegan un rol importante en ello, debido principalmente a que éstas poseen información detallada acerca de los patrones de consumo de sus clientes. No obstante, bajo el marco regulatorio tradicional, las distribuidoras tienen desincentivos para promover la EE, debido a que una reducción en las ventas de energía reduce también sus ingresos y utilidades. Es por ello que, para apoyar a la implementación de un nuevo marco regulatorio, es necesario disponer de modelos que analicen los posibles efectos económicos de implementar distintos mecanismos de incentivos para fomentar la EE en las distribuidoras eléctricas.En este contexto, la presente tesis propone dos modelos bi-nivel basados en la teoría Principal-Agente. Estos modelos permiten estudiar los efectos económicos de aplicar diversos esquemas de pago de manera integrada, considerando tanto un sistema de pago de compensaciones fijas como también un sistema basado en el desempeño de los programas de EE. En un primer modelo tanto la distribuidora (Agente) como el Estado (Principal) no consideran la incertidumbre asociada a los ahorros energéticos de los programas de EE. El segundo modelo corresponde a una sofisticación del modelo anterior, en el que el Estado considera que los ahorros energéticos están sujetos a incertidumbre a través del concepto del CVaR (Conditional Value at Risk).En cuanto a los resultados obtenidos se observa que en términos generales le conviene al Estado adoptar un sistema de compensaciones basado en el desempeño más que financiar todos los costos fijos. No obstante, a medida que el Estado busca tener un nivel mayor de utilidad mínima esperada, le conviene adoptar un sistema mixto de compensaciones, en el cual se le pague a la distribuidora parte de los costos fijos en los que se incurrió y además se le entregue un incentivo basado en el desempeño.
uc
Category-level visual object recognition using novel machine learning techniques
El reconocimiento automático visual de objetos genéricos es un área muy importante de estudio. Sin embargo, variaciones intra-clase y pose tanto como ruido de fondo de imagen y oclusiones parciales son algunas de las principales dificultades para lograr este objetivo. Como ejemplo de aplicación, robots con un sistema de visión confiable pueden obtener un mayor nivel de autonomía y comprensión semántica de sus entornos. Enfoques actuales del estado de arte para reconocimiento visual de categoría de objetos son generalmente basados en dos pasos principales: generación de descriptores visuales y entrenamiento de clasificadores visuales usando estos descriptores e imágenes etiquetadas. Además, estos pasos son usualmente complementados con técnicas orientadas a incluir informacion contextual en los modelos. En esta tesis, nosotros contribuimos al área de reconocimiento visual proponiendo tres técnicas orientadas a mejorar respectivamente cada uno de los pasos previos.Primero, introducimos una técnica para contruir descriptores visuales basados en representación de bolsa de palabras (BoWs). A diferencia de enfoques actuales basados en técnicas de clustering no supervisado, nuestra propuesta combina información no supervisada y supervisada conduciendo a representaciones de BoWs más discriminativas. Luego, presentamos una técnica para mejorar la performance de clasificadores visuales actuales usando un enfoque de divide-y-vencerás basado en el enfoque de Mixtura de Expertos (MoE). Nosotros innovamos con respecto al estado de arte de las actuales técnicas de MoE al incorporar un esquema de selección local embebida de características dentro cada clasificador visual. Finalmente, proponemos un enfoque que aprovechar la información contextual para mejorar la performance de las técnicas de reconocimiento de objetos. Nosotros innovamos en relacion a técnicas del estado de arte al considerar las relaciones contextuales entre clases de objetos como dependientes de la escena. Nosotros probamos la performance de todas estas técnicas al aplicarlas a bases de datos estándares de prueba. Nuestros resultados validan nuestras principales hipótesis mostrando mejoras en relación a métodos alternativos del estado de arte. Esto también muestra que las ideas presentadas en esta tesis representan una contribución relevante en el área del reconocimiento de categoría de objetos.
uc
Efecto de la pensión básica solidaria sobre la oferta laboral del hogar : efectos heterogéneos por género.
En este trabajo, se estima el efecto de la Pensión Básica Solidaria (PBS) sobre la oferta laboral del hogar para los años 2009 y 2011. Esta pensión comenzó a implementarse el año 2008 y va dirigida a adultos mayores sobre los 65 años de edad que no hayan cotizado para su vejez y que pertenezcan al sector más vulnerable del país. La oferta laboral del hogar es medida en términos de participación y horas promedio. No se encuentran efectos significativos en los hogares cuyos miembros residen con un pensionado de la PBS afecte la oferta laboral del hogar. Sin embargo, esta estimación omite efectos heterogéneos por género. Al incluir el género del pensionado, se encuentra un aumento en la oferta laboral del hogar cuando se reside con un adulto mayor de género femenino con PBS para los años 2009 y 2011.
uc
De inflación alta y volátil a inflación baja y estable : el caso de Chile.
El siguiente trabajo tiene por objetivo determinar cuáles fueron las causas detrás de la caída de la volatilidad de la inflación en Chile, donde destacan principalmente dos factores. Primero, el buen manejo que llevó a cabo el Banco Central de la política monetaria, en particular una política monetaria más activa, agresiva ante desviaciones de la inflación respecto de su meta inflacionaria. Segundo, el factor “suerte”. Un periodo donde existen Shocks positivos de oferta que han afectado a todo el mundo. Mediante una estimación de un modelo estructural para la economía chilena, se concluye que el principal factor que incidió en la caída de la volatilidad de la inflación fue la reducción de los shocks que golpeaban a la economía, los que pueden explicar hasta un 54% de la reducción. Los resultados también muestran un cambio en la estructura de la economía chilena hacia una determinación de precios más forward looking, cambio que implicaría una considerable reducción en la volatilidad de la inflación. Adicionalmente, se encuentra un cambio hacia una regla de política monetaria más agresiva ante cambios en la inflación esperada, pero su alcance en la reducción de la volatilidad de la inflación es más reducida.
uc
Determinantes de la participación en actividades culturales para Chile.
Este trabajo estudia de manera empírica, a partir de un modelo teórico de demanda cultural, los determinantes de las decisiones de participación en (asistencia a) una serie de actividades culturales para Chile. Más concretamente, se estudia la influencia de estos determinantes tanto sobre la decisión de participación como sobre la cantidad de veces que se participa, utilizando como metodología un probit y un probit ordenado, respectivamente. Los resultados encontrados sugieren que el capital cultural, definido como la capacidad de apreciación artística, es un determinante crucial en la decisión individual de participación en actividades culturales. También sugieren que, la riqueza y el precio del tiempo de ocio afectan significativamente la probabilidad de participación.
uc
Efecto de las restricciones financieras en las decisiones de financiamiento e inversión : el caso de Chile.
En este trabajo se estudian los efectos de las restricciones financieras en las decisiones de financiamiento e inversión de las empresas. La teoría, proveniente de la literatura norteamericana, plantea que la inversión de las firmas restringidas es más sensible a los movimientos en el componente no fundamental del precio de las acciones y que, además, este componente también tendría un mayor impacto en la emisión de acciones de este tipo de firmas. Para el análisis se utiliza un panel de firmas chilenas con datos trimestrales entre los años 1997 y 2012. Primero se hacen varias regresiones para testear las dos hipótesis en el caso general y, posteriormente, se examina qué ocurre con ellas en período de crisis. Los resultados muestran que en Chile en general la teoría no se cumple. El modelo puede no ser compatible con el caso chileno debido a las diferencias existentes en el contexto de los países, por ejemplo en el nivel de desarrollo del sector financiero o en el marco legal.
uc
The emergence of operative knowledge
La tecnología nos provee acceso permanente y ubicuo a repositorios en línea de la experiencia humana, cambiando la forma en la que nos relacionamos con la información y el conocimiento. El almacenamiento y la recuperación de información en la era pre-digital –basado en objetos físicos- forzaba un indexamiento lineal y unívoco, estableciendo por tanto mecanismos fijos de organización, validación y circulación de objetos mediales – dominados por el texto impreso. El ecosistema medial de nuestros días ha reestructurado las lógicas bajo las cuales clasificamos y accedemos contenido, estableciendo bibliotecas recentrables donde la curatoría y la linealidad son remplazadas por el poder computacional de las palabras clave y los motores de búsqueda. La base de la revolución de la información y comunicación que vivimos hoy día es la posibilidad de construir cadenas de documentos personalizadas a través de las capacidades del hipervínculo. El Conocimiento Operativo -concepto que se establece y define por primera vez en esta tesis- son pequeñas fracciones de conocimiento que pueden ser accedidas de forma veloz y sencilla, que permiten a los individuos consumir, crear y transformar ideas a través de dominios disciplinares, incluso sin ser expertos. Esta tesis plantea un recorrido bibliográfico a través de los orígenes del fenómeno del Conocmiento Operativo; desde tópicos socio-culturales -como lo son las concepciones de individuo, comunidad y cultura-, pasando por las raíces y precedentes técnicos que posibilitan acceso ubicuo y permanente a repostiorios virtuales, hasta el impacto futuro de este fenómeno.
uc
Lo que se espera de mí : el desenmascaramiento del príncipe superpoderoso Mr. Músculo : (mujer, bordado, limpieza, medios de comunicación y violencia simbólica).
El texto que se presenta a continuación es un análisis cuyo objeto de estudio es la obra denominada “Lo que se espera de mí. El desenmascaramiento del príncipe superpoderoso Mr. Músculo”. El marco teórico abordado, revisa primeramente el imaginario femenino en Chile y Latinoamérica desde mediados del siglo XIX hasta la actualidad; luego, distintas formas de violencia, centrándose en la violencia simbólica cometida contra las mujeres; posteriormente, realiza un análisis del personaje de limpieza Mr. Músculo, desde una perspectiva psicoanalítica; para concluir, propone una observación de la manualidad, desde los conceptos de habilidad, labor y trabajo. A continuación, observa trabajos realizados con anterioridad a la obra objeto de estudio de este texto, para esclarecer su procedencia, cuyo análisis se realiza en el capítulo siguiente, distinguiendo sus técnicas, materiales y estrategias. Luego, revisa tres artistas referentes, Marcus Amerman, Ana Teresa Barboza y Bruna Truffa. Finalmente, presenta conclusiones derivadas de la investigación que demandó la escritura de este texto.
uc
La práctica teatral en contextos penitenciarios : aproximación etnográfica al estudio de un taller de teatro carcelario realizado en el sector módulos de la ex Penitenciaria de Santiago de Chile /
En la actualidad, las prácticas artísticas que se llevan a cabo al interior de los recintos penitenciarios de Chile se enmarcan dentro del Programa Arte Educador, el cual, impulsado y desarrollado por el Departamento de Reinserción Social de Gendarmería de Chile (GENCHI), se posiciona como el primer intento de políticas públicas de educación artística volcadas al servicio del sistema penitenciario. Tras el supuesto de que las artes constituyen una praxis cultural educadora de ciertas habilidades sociales relevantes para la reinserción comunitaria de los internos e internas que habitan las cárceles nacionales, GENCHI ofrece a la población penal una oferta programática de talleres artísticos que son desarrollados en las cárceles más grandes del país. Sin embargo, hasta aquí esta educación a través de las artes que se lleva a cabo actualmente mediante la realización de diversos talleres resulta invisible. Con el objetivo de conocer el significado que adquiere la práctica teatral en los internos que participan en el taller de teatro del sector módulos de la ex Penitenciaría, la siguiente investigación se propone analizar, desde una perspectiva etnográfica, en qué medida la práctica teatral se vuelve eficaz para colaborar tanto en la generación de un espacio de experiencia de la propia dignidad personal como en el desarrollo correlativo de una riqueza creativa y comunicativa en los internos de la ex Penitenciaría, capaz de abrir un camino hacia relaciones de confianza y de reciprocidad incluso al interior de los recintos carcelarios. Se trata de fundamentar el modo en que el teatro logra configurarse como una práctica social valorada al interior de las cárceles, que impacta profundamente la rutina cotidiana de los internos que de ella participan.
uc
La supervisión técnico-pedagógica del Ministerio de Educación : caracterización y análisis de las prácticas de supervisión, en relación a demandas normativas y teóricas
La tesis doctoral de investigación que se presentará a continuación tiene como tema de estudio, la práctica que la Supervisión Técnico-pedagógica ejerce en las escuelas focalizadas chilenas a través de visitas periódicas de supervisión. La investigación persiguió conocer qué y cómo están realizando su labor los supervisores chilenos, para identificar y caracterizar su tipo de gestión y, a partir de esto, evaluar su nivel de acercamiento o distancia con las demandas normativas y teóricas colocadas a la supervisión, las cuales exigen condiciones ideales de intervención. La práctica supervisora se estudio a partir de un registro informático, por el cual los supervisores ingresan la información de lo realizado en cada visita a los establecimientos. Registro que recibe el nombre de FOGES. A través de este registro se estudiaron 3.705 visitas de supervisión que se realizaron en 400 establecimientos educacionales de todas las regiones del país , durante un período anual de supervisión. Para cada una de las visitas se analizaron las actividades que los supervisores registraban hacer en las escuelas, registro disponible, observado y verificado por los directivos escolares y por las autoridades de supervisión. Las actividades fueron analizadas considerando los siguientes tres elementos de la práctica de los supervisores: funciones de supervisión, en un marco de 10 funciones específicas establecidas por el marco de actuación oficial; los dos ámbito de intervención del supervisor: las prácticas pedagógicas o los procesos institucionales; y los actores con quien se contacta el supervisor. Estos elementos de la práctica supervisora, que se denominaron variables de gestión, se describieron y caracterizaron en forma independiente, pero también se analizaron asociadamente entre ellos y asociadamente con factores intervinientes a la práctica supervisora, relacionados con características de los centros escolares y características personales de los supervisores. Las técnicas de análisis de la información para los objetivos descriptivos fueron cualitativos, el análisis de contenido, y cuantitativos, estadística descriptiva. Para el análisis asociativo se utilizaron tablas de contingencia con Chi cuadrado y análisis multivariado de correspondencias múltiples. Los resultados de la investigación concluyeron que la práctica de la supervisión está muy distante de ejercerse según las demandas normativas exigidas por el Ministerio de Educación, principalmente porque la supervisión cumple parcial y débilmente la propuesta global de asistencia técnica, planeada para las escuelas focalizadas. Por otra parte , la distancia es aún mayor con las demandas teóricas, debido a que la gestión que los supervisores realizan sobre las funciones de supervisión más relevadas por la teoría, como la asesoría técnica y la evaluación, son gestionadas insatisfactoriamente, en comparación a las condiciones ideales con que éstas deben llevarse a cabo. La investigación también concluye que la práctica supervisora en general responde a un plan general de supervisión definido estatalmente y que el ajuste con las realidades escolares es menor. Cuando este ajuste existe, éste se relaciona con elementos intervinientes a la interacción supervisión-escuela que no están directamente relacionados con las demandas a la supervisión, si no con elementos subyacentes a la interacción. En este sentido se destacan la supervisión diferente que se hace en escuelas particular subvencionadas; donde se enfatiza la evaluación y el control; la supervisión diferente que se ejerce en las escuelas básicas a diferencia de los liceos: la supervisión en las primeras conecta mejor la implementación de las políticas educacionales con contenidos pedagógicos curriculares, mientras que en los liceos es una asistencia más institucional. Por último y relacionado con lo anterior, también se destaca la supervisión diferenciada por el título docente del supervisor, en donde los supervisores docentes básicos realizan una asistencia más curricular y los supervisores docentes de enseñanza media, una asistencia más institucional a las escuelas. En relación a los resultados asociativos, se destaca que los supervisores expresan sentidos asociados de gestión entre algunos elementos de sus prácticas, los cuales deben ser considerados para cualquiera innovación a la supervisión técnico pedagógica. Estos tipos de supervisión son tres: la supervisión que entiende la asistencia al mejoramiento de las escuelas mediante la implementación formal y declarativa de la calidad, en combinación con funciones de enlace y ejercida sobre los directivos; la supervisión que entiende la asistencia al mejoramiento como la acción combinada entre la capacitación y la evaluación con los docentes; y la supervisión (muy menor y poco representativa) que entiende la asistencia al mejoramiento como una acción de sentido y promoción de la cultura de la calidad escolar. Finalmente, a partir de los resultados se entregan propuestas de cambio a la supervisión técnico pedagógica del Mineduc, a través de dos líneas de innovación: primero, si la autoridad educativa decide mantener la propuesta global e integral de asistencia técnica a las escuelas, a través del actual marco de funciones y estrategias de acción, la supervisión debe reformularse cabalmente desde el punto de vista de un mejor soporte y cambios en la gestión de los supervisores. Segundo, la autoridad educacional puede decidir colocar un foco funcional a la supervisión, delegando las funciones que no seguirá ejerciendo a otras instancias de asistencia técnica. En este caso, se recomienda que la supervisión se concentre en gestionar sólo funciones de evaluación y control.La tesis doctoral de investigación que se presentará a continuación tiene como tema de estudio, la práctica que la Supervisión Técnico-pedagógica ejerce en las escuelas focalizadas chilenas a través de visitas periódicas de supervisión. La investigación persiguió conocer qué y cómo están realizando su labor los supervisores chilenos, para identificar y caracterizar su tipo de gestión y, a partir de esto, evaluar su nivel de acercamiento o distancia con las demandas normativas y teóricas colocadas a la supervisión, las cuales exigen condiciones ideales de intervención. La práctica supervisora se estudio a partir de un registro informático, por el cual los supervisores ingresan la información de lo realizado en cada visita a los establecimientos. Registro que recibe el nombre de FOGES. A través de este registro se estudiaron 3.705 visitas de supervisión que se realizaron en 400 establecimientos educacionales de todas las regiones del país , durante un período anual de supervisión. Para cada una de las visitas se analizaron las actividades que los supervisores registraban hacer en las escuelas, registro disponible, observado y verificado por los directivos escolares y por las autoridades de supervisión. Las actividades fueron analizadas considerando los siguientes tres elementos de la práctica de los supervisores: funciones de supervisión, en un marco de 10 funciones específicas establecidas por el marco de actuación oficial; los dos ámbito de intervención del supervisor: las prácticas pedagógicas o los procesos institucionales; y los actores con quien se contacta el supervisor. Estos elementos de la práctica supervisora, que se denominaron variables de gestión, se describieron y caracterizaron en forma independiente, pero también se analizaron asociadamente entre ellos y asociadamente con factores intervinientes a la práctica supervisora, relacionados con características de los centros escolares y características personales de los supervisores. Las técnicas de análisis de la información para los objetivos descriptivos fueron cualitativos, el análisis de contenido, y cuantitativos, estadística descriptiva. Para el análisis asociativo se utilizaron tablas de contingencia con Chi cuadrado y análisis multivariado de correspondencias múltiples. Los resultados de la investigación concluyeron que la práctica de la supervisión está muy distante de ejercerse según las demandas normativas exigidas por el Ministerio de Educación, principalmente porque la supervisión cumple parcial y débilmente la propuesta global de asistencia técnica, planeada para las escuelas focalizadas. Por otra parte , la distancia es aún mayor con las demandas teóricas, debido a que la gestión que los supervisores realizan sobre las funciones de supervisión más relevadas por la teoría, como la asesoría técnica y la evaluación, son gestionadas insatisfactoriamente, en comparación a las condiciones ideales con que éstas deben llevarse a cabo. La investigación también concluye que la práctica supervisora en general responde a un plan general de supervisión definido estatalmente y que el ajuste con las realidades escolares es menor. Cuando este ajuste existe, éste se relaciona con elementos intervinientes a la interacción supervisión-escuela que no están directamente relacionados con las demandas a la supervisión, si no con elementos subyacentes a la interacción. En este sentido se destacan la supervisión diferente que se hace en escuelas particular subvencionadas; donde se enfatiza la evaluación y el control; la supervisión diferente que se ejerce en las escuelas básicas a diferencia de los liceos: la supervisión en las primeras conecta mejor la implementación de las políticas educacionales con contenidos pedagógicos curriculares, mientras que en los liceos es una asistencia más institucional. Por último y relacionado con lo anterior, también se destaca la supervisión diferenciada por el título docente del supervisor, en donde los supervisores docentes básicos realizan una asistencia más curricular y los supervisores docentes de enseñanza media, una asistencia más institucional a las escuelas. En relación a los resultados asociativos, se destaca que los supervisores expresan sentidos asociados de gestión entre algunos elementos de sus prácticas, los cuales deben ser considerados para cualquiera innovación a la supervisión técnico pedagógica. Estos tipos de supervisión son tres: la supervisión que entiende la asistencia al mejoramiento de las escuelas mediante la implementación formal y declarativa de la calidad, en combinación con funciones de enlace y ejercida sobre los directivos; la supervisión que entiende la asistencia al mejoramiento como la acción combinada entre la capacitación y la evaluación con los docentes; y la supervisión (muy menor y poco representativa) que entiende la asistencia al mejoramiento como una acción de sentido y promoción de la cultura de la calidad escolar. Finalmente, a partir de los resultados se entregan propuestas de cambio a la supervisión técnico pedagógica del Mineduc, a través de dos líneas de innovación: primero, si la autoridad educativa decide mantener la propuesta global e integral de asistencia técnica a las escuelas, a través del actual marco de funciones y estrategias de acción, la supervisión debe reformularse cabalmente desde el punto de vista de un mejor soporte y cambios en la gestión de los supervisores. Segundo, la autoridad educacional puede decidir colocar un foco funcional a la supervisión, delegando las funciones que no seguirá ejerciendo a otras instancias de asistencia técnica. En este caso, se recomienda que la supervisión se concentre en gestionar sólo funciones de evaluación y control.
uc
Estudio experimental propiedades dinámicas de relaves espesados : aplicación al análisis de estabilidad de un depósito de relaves
Los depósitos de relaves espesados (TTD, Thickened Tailings Disposal) consisten en depósitos en los cuales se almacena un relave al cual se le ha extraído, previo a la depositación, una mayor cantidad de agua que a los que se almacenan en depósitos de relaves convencionales. Estos relaves espesados tienen menores pérdidas de agua, una mayor densidad y pueden ser depositados con pendientes más altas frente a los relaves convencionales, por lo que se convierten en una alternativa a considerar para la minería en la zona norte de Chile. Recientemente, la gran minería del cobre en el país ha comenzado a utilizar depósitos de relaves espesados como alternativa para el manejo de sus relaves. El propósito de esta investigación fue estudiar las propiedades dinámicas de un relave espesado usado en una mina de cobre en funcionamiento en Chile mediante ensayos cíclicos de laboratorio de columna resonante y triaxiales cíclicos, replicando las condiciones in-situ en que este material se encuentra. Los resultados mostraron que el relave, el cual consiste en un material limo arcilloso de baja plasticidad cuyo origen es artificial, se comporta de manera similar que los materiales limo arcillosos de origen natural. Un aspecto importante de este estudio fue la calibración de dos modelos constitutivos y un análisis numérico para estudiar el empuje que generan estos relaves sobre el muro de un depósito durante un evento sísmico. Los resultados indican que para este tipo de relave, los desplazamientos sísmicos son independientes de los modelos de comportamiento empleados y que, para ambos casos también, el empuje sobre el muro del depósito se encuentra por sobre el empuje geoestático, asumiendo todo el relave licuado durante la carga sísmica.Los depósitos de relaves espesados (TTD, Thickened Tailings Disposal) consisten en depósitos en los cuales se almacena un relave al cual se le ha extraído, previo a la depositación, una mayor cantidad de agua que a los que se almacenan en depósitos de relaves convencionales. Estos relaves espesados tienen menores pérdidas de agua, una mayor densidad y pueden ser depositados con pendientes más altas frente a los relaves convencionales, por lo que se convierten en una alternativa a considerar para la minería en la zona norte de Chile. Recientemente, la gran minería del cobre en el país ha comenzado a utilizar depósitos de relaves espesados como alternativa para el manejo de sus relaves. El propósito de esta investigación fue estudiar las propiedades dinámicas de un relave espesado usado en una mina de cobre en funcionamiento en Chile mediante ensayos cíclicos de laboratorio de columna resonante y triaxiales cíclicos, replicando las condiciones in-situ en que este material se encuentra. Los resultados mostraron que el relave, el cual consiste en un material limo arcilloso de baja plasticidad cuyo origen es artificial, se comporta de manera similar que los materiales limo arcillosos de origen natural. Un aspecto importante de este estudio fue la calibración de dos modelos constitutivos y un análisis numérico para estudiar el empuje que generan estos relaves sobre el muro de un depósito durante un evento sísmico. Los resultados indican que para este tipo de relave, los desplazamientos sísmicos son independientes de los modelos de comportamiento empleados y que, para ambos casos también, el empuje sobre el muro del depósito se encuentra por sobre el empuje geoestático, asumiendo todo el relave licuado durante la carga sísmica.Los depósitos de relaves espesados (TTD, Thickened Tailings Disposal) consisten en depósitos en los cuales se almacena un relave al cual se le ha extraído, previo a la depositación, una mayor cantidad de agua que a los que se almacenan en depósitos de relaves convencionales. Estos relaves espesados tienen menores pérdidas de agua, una mayor densidad y pueden ser depositados con pendientes más altas frente a los relaves convencionales, por lo que se convierten en una alternativa a considerar para la minería en la zona norte de Chile. Recientemente, la gran minería del cobre en el país ha comenzado a utilizar depósitos de relaves espesados como alternativa para el manejo de sus relaves. El propósito de esta investigación fue estudiar las propiedades dinámicas de un relave espesado usado en una mina de cobre en funcionamiento en Chile mediante ensayos cíclicos de laboratorio de columna resonante y triaxiales cíclicos, replicando las condiciones in-situ en que este material se encuentra. Los resultados mostraron que el relave, el cual consiste en un material limo arcilloso de baja plasticidad cuyo origen es artificial, se comporta de manera similar que los materiales limo arcillosos de origen natural. Un aspecto importante de este estudio fue la calibración de dos modelos constitutivos y un análisis numérico para estudiar el empuje que generan estos relaves sobre el muro de un depósito durante un evento sísmico. Los resultados indican que para este tipo de relave, los desplazamientos sísmicos son independientes de los modelos de comportamiento empleados y que, para ambos casos también, el empuje sobre el muro del depósito se encuentra por sobre el empuje geoestático, asumiendo todo el relave licuado durante la carga sísmica.
uc
Diseño de una fuerza laboral polifuncional para el sector servicios :caso aplicado a la industria del retail
La gestión de los recursos humanos en el sector servicios, y en particular en la industria del retail, enfrenta fenómenos predecibles como la estacionalidad de la demanda, y no predecibles como su variabilidad y el ausentismo no programado de personal. En tal contexto, incluso empresas con sofisticados sistemas de planificación de turnos, enfrentan problemas de subdotación y sobredotación de personal que pueden provocar aumentos en los costos laborales y un deterioro en el nivel de servicio a clientes. Un factor agravante es que las empresas del sector servicios usualmente consideran empleados capacitados para trabajar en una única actividad, lo cual resta flexibilidad a las posibilidades de asignación. Esta tesis busca evaluar los potenciales beneficios de incorporar flexibilidad laboral en la gestión de los recursos humanos, a partir del uso de personal polifuncional que pueda ser entrenado para trabajar en distintas actividades. El principal objetivo de esta investigación es desarrollar una metodología que permita diseñar una fuerza laboral polifuncional costo-efectiva a nivel estratégico, y entregar políticas de polifuncionalidad eficientes y atractivas de implementar en las empresas del sector servicios. Las hipótesis de trabajo se validaron a través de tres artículos científicos. En un primer artículo, se propuso una estrategia híbrida de flexibilidad laboral, la cual considera el uso de personal polifuncional, pero también considera estrategias tradicionales como el uso de contratos flexibles y el uso de un sistema de programación de turnos para aprovechar esta flexibilidad. El corazón del enfoque fue un modelo de programación lineal entera mixta. Los resultados muestran que es preferible tener empleados polifuncionales cuyos contratos sean altamente flexibles y ofrezcan una buena cantidad de horas laborales semanalmente. El segundo y tercer artículo sólo usan personal polifuncional como estrategia de flexibilidad. A diferencia del primer artículo, estos dos trabajos no estudian el impacto negativo de la estacionalidad de la demanda. Sin embargo, sí consideran distintos niveles de su variabilidad e incorporan el uso de cadenas cerradas para evaluar los beneficios de la polifuncionalidad en sistemas desbalanceados. Ambos artículos presentan diferencias metodológicas, pero sus resultados son consistentes entre sí. El segundo artículo presenta una solución simultánea para determinar la cantidad óptima de empleados polifuncionales por actividad. El enfoque consiste en un modelo de programación lineal entera mixta y el uso de la metodología de optimización robusta. Por otra parte, el tercer artículo propone una modelación continua de la fuerza laboral y un análisis local y separado por actividad, y de manera novedosa entrega una expresión analítica para estimar la cantidad óptima de empleados polifuncionales por actividad. Los resultados obtenidos en los tres artículos proveen un conjunto de lineamientos y políticas para responder las tres preguntas fundamentales sobre polifuncionalidad: dónde agregarla, cuánta agregar, y cómo debería agregarse.
uc
Control of basal ciliary activity and response to mechanical and chemical stimuli depend on extracellular ATP through an autocrine/paracrine mechanism.
En el epitelio mucociliado de las vías respiratorias y del oviducto, la frecuencia de batido ciliar (CBF) es el principal factor que determina la efectividad del transporte mucociliar. CBF se puede medir en un estado basal o incrementada por un estimulo químico o mecánico. ATP es un conocido estimulante de la CBF, efecto que es mediado por la activación de receptores purinérgicos. El incremento en la CBF inducido por ATP depende de la liberación de Ca2+ de almacenes intracelulares y de la entrada de Ca2+ desde el medio extracelular. En células del epitelio respiratorio, ATP es liberado al medio extracelular de manera constitutiva o en respuesta a una estimulación mecánica (MS), por un mecanismo que involucraría hemicanales (HCs) de panexina 1 (Panx1) o de conexina 43 (Cx43). El objetivo de este estudio fue determinar si ATP liberado por el epitelio mucociliado contribuye en el mecanismo de control de la actividad ciliar basal y si el incremento de la CBF inducido por una estimulación química y mecánica es mediado por la liberación de ATP.
uc
Estudio de los genes VvBSL1 y VvBSL2, que codifican para putativos factores de transcripción, en la respuesta a estrés en Vitis vinifera L.
Vitis vinifera L., es una especie extensivamente cultivada a lo largo de Chile y está expuesta a condiciones de estrés biótico y abiótico muy diversas. Parte importante de los mecanismos adaptativos que permiten a las plantas responder a estrés dependen de cambios transcripcionales. En esta tesis se identificaron dos genes pertenecientes a la familia de factores de transcripción R2R3MYB en V. vinifera, nombrados como VvBSL1 y VvBSL2 por su alta homología con genes de otras especies relacionados a la respuesta tanto a estrés biótico como abiótico. Utilizando RT-PCR en tiempo real, se determinó que VvBSL1 es inducido tanto por la infección por Botrytis cinerea, Grapevine leafroll-associated virus 3 (GLRaV-3) y salinidad. Esto sugiere que VvBSL1 podría constituir un punto de convergencia para la respuesta a estrés biótico y abiótico. Adicionalmente, los niveles de transcrito de VvBSL2 son aumentados en estrés abiótico como elevada radiación UV-B y salinidad.
uc
C-ABL estabiliza los niveles de HDAC2 por fosforilación en tirosina reprimiendo la expresión de genes neuronales en la enfermedad de Alzheimer.
La Enfermedad de Alzheimer (EA) es un desorden neurodegenerativo caracterizado por un deterioro cognitivo progresivo. El sello distintivo de los cerebros afectados con la enfermedad de Alzheimer es la presencia de agregados proteicos insolubles. En este sentido, la hipótesis de la cascada del amiloide plantea que la acumulación y agregación del péptido A\03B2 desencadena un conjunto de mecanismos que conducen a la disfunción y la apoptosis de las neuronas. Entre los mecanismos descritos, uno que ha despertado gran interés es la disminución en la expresión de genes neuronales producto del incremento en los niveles de HDAC2. Esta enzima cataliza la deacetilación de las histonas, lo que provoca que la cromatina adquiera una conformación cerrada que es transcripcionalmente inactiva. Actualmente, la evidencia indica que HDAC2 esta involucrada en el deterioro cognitivo y en la disfunción sináptica que caracteriza a la EA. A pesar de que se ha descrito extensamente que el incremento en los niveles de HDAC2 tiene un papel negativo en el desarrollo de la EA, los mecanismos moleculares involucrados en este incremento no están completamente dilucidados. Interesantemente, se ha demostrado en modelos in vitro que la tirosina quinasa c-Abl esta implicada en la represión de genes por un mecanismo epigenético, el cual sería dependiente de la actividad de las HDACs. En neuronas, la tirosina quinasa c-Abl es un actor clave en los procesos neurodegenerativos. En efecto, resultados de nuestro laboratorio han demostrado que la c-Abl es activada y participa en la muerte neuronal, la disfunción y la pérdida sináptica en modelos de la EA.
uc
Estudio de la biogénesis y expresión de mirrorRNAs en el transcriptoma de mamíferos.
Con el advenimiento de nuevas tecnologías se ha descubierto la gran complejidad del transcriptoma de los mamíferos. Se ha reportado la existencia de un tipo especial de transcritos antisentido naturales (NATs), que son perfectamente complementarios a mRNAs sentido a lo largo de varios exones, incluyendo los sitios de unión entre exones. En esta tesis estos transcritos antisentido naturales son llamados mirrorRNAs. Hasta el momento aun existe controversia si los mirrorRNAs son RNAs no codificantes reales o artefactos experimentales. No se han hecho análisis sistemáticos que permitan conocer la abundancia y diversidad de los mirrorRNAs en el transcriptoma humano y tampoco se ha estudiado el mecanismo mediante el cual los mirrorRNAs son generados. En la literatura se han propuesto dos hipótesis para explicar su biogénesis. La primera hipótesis es que estos transcritos son generados por la transcripción bidireccional de un locus y que posteriormente los transcritos antisentido sufren splicing en los sitios no consenso CT-AC, que son los sitios complementarios a los sitios consenso GT-AG. La segunda hipótesis que se ha planteado es que los mirrorRNAs se producen por una actividad RNA polimerasa dependiente de RNA (RdRP) que utiliza como molde un mRNA maduro, generando un transcrito antisentido perfectamente complementario. En esta tesis planteamos una tercera hipótesis: Los mirrorRNAs provienen de la transcripción antisentido de pseudogenes procesados presentes en el genoma.
uc
Role of CTGF and TNF on fibrosis in muscular dystrophy.
La Distrofia Muscular de Duchenne (DMD) es una enfermedad ligada al X, que se caracteriza por daño progresivo y acumulativo en el músculo debido a la ausencia de la proteína distrofina. La fibrosis, que es la excesiva acumulación de proteínas de la matriz extracelular (ECM), también está presente en el músculo de pacientes de DMD y varios modelos animales (como el ratón mdx), debido a la inflamación continua en el tejido producida por repetidos ciclos de contracción y relajación. Entre los factores que indicen fibrosis se encuentran el Factor de Crecimiento Transformante tipo \03B2 (TGF-\03B2) y el Factor de Crecimiento de Tejido Conectivo (CTGF), este último es blanco de la señalización mediada por TGF-\03B2/Small Mothers Against Decapentaplegic (SMAD) y es responsable de los efectos profibróticos de TGF-\03B2 y está aumentado en tejidos fibróticos. Poco se sabe de la regulación de la expresión de CTGF mediada por TGF-\03B2 en células musculares. Es esta tesis, describimos un nuevo elemento de unión a SMAD (SBE) localizado en la región 5\2019 UTR del gen de CTGF, que es importante para la expresión de CTGF mediada por TGF-\03B2 en mioblastos. Adicionalmente, nuestros resultados sugieren que sitios de unión de factores de transcripción (TFBS) adicional, presentes en la región 5\2019 UTR del gen de CTGF son importantes para su expresión.
uc
Lisinopril disminuye de manera parcial la progresión del daño renal a través del aumento de ciclooxigenasa-2 vía JNK/c-Jun.
La insuficiencia renal crónica (IRC) corresponde a una situación clínica caracterizada por la pérdida irreversible de la función renal, de carácter progresivo y de múltiples etiologías. Los sistemas vasoactivos como el Sistema Renina Angiotensina (SRA) y el Sistema Calicreina Cininas (SCC) son fundamentales para la homeostasis renal, ejerciendo funciones en la regulación de iones como sodio y potasio, en la diuresis, el transporte de agua a nivel del túbulo colector y en la regulación de la presión arterial renal, por lo que un desbalance entre estos sistemas podría llevar a una patología renal. El SRA ha sido caracterizado como un sistema hipertensor en el que la Angiotensina II (Ang II), un potente vasoconstrictor, activa al receptor AT1, generando un aumento de la resistencia periférica, la presión arterial, fibrosis e inflamación. Por otra parte, el Sistema Calicreina Cininas (SCC), ha sido descrito como un sistema renoprotector. Este efecto ha sido atribuido a la Bradicinina (BK), la que mediante la activación de sus receptores B1 o B2 estimula diferentes efectos fisiológicos como el aumento del flujo sanguíneo medular, la natriuresis y la reducción de la fibrosis. Uno de los mediadores más importante de estos dos sistema es la Enzima Convertidora de Angiotensina I (ECA), responsable de transformar la angiotensina I (Ang I) en Ang II y de degradar la BK a BK-1,7, generando una disminución del efecto del SCC y un aumento del SRA. En relación a la ECA, se han descrito 2 tipos, una circulante y otra tisular, siendo esta última la forma más abundante. Además, algunos autores han caracterizado la función de la ECA tisular atribuyéndole un rol como receptor.
uc
Distribución potencial y posibles rutas de migración del castor norteamericano (Castor canadensis) en su rango invasivo utilizando el concepto de nicho hutchinsoniano.
Una de las preguntas más interesantes en ecología, es qué determina el rango de una especie. En este sentido, uno de los conceptos teóricos más útiles para estudiar tanto los límites como la estructura interna del rango de una especie es el Nicho Ecológico. Su concepto se ha visto redefinido en varias oportunidades, sin embargo un punto en común para estas definiciones es la búsqueda de cómo podemos predecir el hábitat de una especie. Recientemente, surge una metodología capaz de predecir el rango de una especie: la modelación de distribución de especies basado en el concepto de nicho Grinelliano. Esta herramienta ha permitido mejorar la forma en que entendemos la distribución de las especies al generar distribuciones potenciales frente a distintos escenarios. Un siguiente paso en el estudio de la estructura interna de la distribución de una especie es la utilización de su adecuación biológica, a través de la generación de modelos a partir de nicho Hutchinsonianos espacialmente explícitos (biótopos). El objetivo general de esta tesis es el modelar el nicho Hutchinsoniano del castor en la isla de Tierra del fuego, caracterizar la estructura de su rango, proyectarlo al continente y utilizar esta información para modelar el rango y rutas de dispersión de la especie para Sudamérica.
uc
Determinants of differential functions of galectin-8 on T cells and tumoral cells : interplay of galectin-8 isoforms, integrin and growth factor signaling pathways.
Galectins are a subfamily of lectins involved in a variety of cellular processes mainly related with the immune system and cancer. Galectins are secreted through unconventional mechanisms, because they lack a signal peptide, and their carbohydrate recognition domains (CRD) bind to N-acetyllactosamine residues present on cell surface N- and O-glycoconjugates. Each of the 15 galectin family members can have redundant as well as particular functions depending on the structural organization of their CRDs, which is classified in three major groups: Monomeric chimera-type design (Gal-3); Homodimeric prototype (Gal-1, -2, -5, -7, -10, -11, -13, and -15); Tandem-repeat type with two different CRDs connected by a linker peptide (Gal-4, -6, -8, -9 and -12). The function of each particular member can also vary in different cellular contexts through mechanisms still not well understood, but likely dependent on differential subsets of glycoproteins and signaling pathways engaged. Therefore, understanding the role of a particular galectin requires to define the determinants of its variable functions in different cellular contexts.
uc