Departamento Ciencias de la Computación - FCEIA-ECEN-DCC
URI permanente para esta comunidad
Examinar
Examinando Departamento Ciencias de la Computación - FCEIA-ECEN-DCC por Título
Mostrando 1 - 20 de 108
Resultados por página
Opciones de ordenación
Ítem Acceso Abierto A Digital Ecosystem for the Collaborative Production of Open Textbooks: The LATIn Methodology(Informing Science Institute, 2013) Frango Silveira, Ismar; Ochôa, Xavier; Cuadros-Vargas, Alex; Pérez Casas, Alén; Casali, Ana; Ortega, Andre; Silva Sprock, Antonio; Alves, Carlos Henrique; Collazos Ordoñez, Cesar Alberto; Deco, Claudia; Cuadros-Vargas, Ernesto; Knihs, Everton; Parra, Gonzalo; Muñoz-Arteaga, Jaime; Gomes dos Santos, Jéssica; Broisin, Julien; Omar, Nizam; Motz, Regina; Rodés, Virginia; Hernández C. Bieliukas, YoslyAccess to books in higher education is an issue to be addressed, especially in the context of underdeveloped countries, such as those in Latin America. More than just financial issues, cultural aspects and need for adaptation must be considered. The present conceptual paper proposes a methodology framework that would support collaborative open textbook initiatives. This methodology intends to be the main guideline for a digital ecosystem for the collaborative production of open textbooks and has the potential to solve standing methodological problems of current initiatives, such as Wikibooks and Connexions. The system's architecture and construction will be guided by six collaborative writing dimensions: process, roles, timing, controlling, granularity, and writing groups. Each dimension will coordinate an aspect of the collaborative work and is detailed in the methodology proposed in this paper. This paper is divided in the following parts: the first part introduces the subject, being followed by an analysis of related works about collaboration and Computer-Supported Cooperative Work; in this section, some authors, ideas, and methodological aspects of collaborative writing are also discussed. Next, the paper shows the proposal of a Digital Ecosystem for the collaborative creation of open textbooks, the six dimensions of this Ecosystem, and its respective descriptions. The work finishes with some conclusions about the proposal and the next steps needed to implement it in the real world.Ítem Acceso Abierto A propósito del desarrollo de libros abiertos y colaborativos: la experiencia del libro “Economía Internacional. Claves teórico-‐prácticas sobre la inserción de Latinoamérica en el Mundo”(Facultad de Humanidades y Artes. Universidad Nacional de Rosario., 2014-11-06) Fernández Alonso, José; Facultad de Humanidades y Artes. Centro de Estudios Interdisciplinarios. Campus Virtual UNREsta presentación tiene por objeto exponer brevemente los principales factores que habilitaron y constriñeron el proceso de producción y difusión del libro “Economía Internacional. Claves teórico-‐prácticas sobre la inserción de Latinoamérica en el Mundo”, el cual tuve el honor de coordinar bajo los auspicios del Proyecto LATin.Ítem Acceso Abierto Abordando el problema del anclaje de símbolos para la clasificación semiautomática de imágenes satelitales(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2013-08-02) Alonso, Walter Alexis; Zanni-Merk, Cecilia H.Este trabajo se sitúa en el contexto de investigación del equipo de BFO1 (bioinformatique théorique, fouille de données, optimisation stochastique) del laboratorio ICube2 (Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie) de la Universidad de Estrasburgo y del CNRS, en los dominios de la representación de conocimientos (inteligencia artificial), y del tratamiento de imágenes satelitales. El objetivo general de este trabajo es contribuir al diseño de un sistema de reconocimiento automático de objetos geográficos relativos a un contexto urbano (edificios, caminos, vegetación, etc.) extraídos de imágenes satelitales. Para ello se tiene que relacionar dos estructuras independientes de representación de estos objetos urbanos, que ya han sido definidas. La primera estructura de representación se obtiene a partir de un proceso de clasificación no supervisada de una imagen de satélite. Esta estructura describe la imagen bajo la forma de « clusters », que agrupan objetos de mismas características físicas (superficie, longitud, anchura, perímetro, índice de Morton, firma espectral, etc.). La segunda estructura de representación se obtiene a partir de una descripción lingüística de las características de los objetos urbanos, elaborada por expertos geógrafos bajo la forma de un diccionario. Estos conceptos han sido formalizados mediante una ontología OWL2. Este trabajo consistirá en tratar de establecer una correspondencia entre la primera y la segunda estructura de representación. Para tal fin se realizará un estudio detallado de los atributos de ambas estructuras y con esta información se adquirirá un conjunto de reglas expertas que las relacione, es decir que traduzcan las características físicas de los objetos extraídos de la imagen en descripciones conceptuales. A su vez, se desarrollará un programa que extraiga los atributos de la imagen a partir de una archivo .arff, ejecute las reglas e instancie las descripciones conceptuales en una ontología. Por último, mediante un editor de ontologías, se clasificarán las instancias con un razonador y se identificarán a qué objetos urbanos pertenecen. Finalmente, en esta tesina, se pudo lograr el desarrollo de un programa para obtener una instanciación automática de las características físicas traducidas a las descripciones conceptuales en la ontología. 1 http://icube-bfo.unistra.fr/fr/index.php/Accueil . 2 http://icube.unistra.fr/Ítem Acceso Abierto Adaptación de arquitecturas profundas a problemas no estacionarios(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2013-03-22) Morelli, Leonardo R.; Grinblat, Guillermo L.; Granitto, Pablo M.; Granitto, Pablo M.En Aprendizaje Automatizado, la mayoría de los métodos de análisis de datos utilizados asumen como premisa básica la estacionaridad de los mismos (es decir, que el fenómeno bajo análisis no cambia en el tiempo). Sin embargo, muchos sistemas reales de gran interés práctico son claramente no estacionarios como por ejemplo cualquier propiedad relacionada a la meteorología o el problema de detección temprana de fallas en líneas de producción. Otra característica que presentan estos métodos es que se basan en lo que puede definirse como arquitecturas poco profundas (Redes Neuronales con una capa oculta, SVM, Árboles de Decisión, etc.), aunque desde hace bastante tiempo se sabe que las arquitecturas profundas, como las Stacked Restricted Boltzmann Machines (SRBM), pueden ser mucho más eficientes a la hora de representar ciertas funciones. En este trabajo se estudia el rendimiento de estas arquitecturas en el ámbito de los problemas no estacionarios y su adaptación a los mismos. Para ello se propone una forma en que se puede integrar la información aportada por los datos antiguos al entrenamiento de un modelo de mayor profundidad que al mismo tiempo sea capaz de adaptarse rápidamente a cambios observados. Para validar la nueva técnica se compara su desempeño con métodos tradicionales sobre problemas no estacionarios diseñados a partir de dos datasets ampliamente usados y conocidos, MNIST y NORB.Ítem Acceso Abierto Alef: un cálculo de efectos algebraicos con tipado bidireccional(2020-07-13) Locascio, Antonio; Jaskelioff, Mauro; Rivas, ExequielEl modelado de efectos computacionales mediante teorías matemáticas es un instrumento fundamental para facilitar el razonamiento sobre programas y poder garantizar su correctitud. Uno de estos modelos es el basado en la teoría de efectos algebraicos, que representa los efectos mediante operaciones de una teoría algebraica que captura su comportamiento. Para incorporar este modelo al diseño de lenguajes de programación se introducen los sistemas de efectos, que extienden los sistemas de tipos con información acerca de los efectos que pueden ser causados por un programa. Sin embargo, las implementaciones de estos sistemas suelen ser muy complejas, perdiendo en gran medida la claridad conceptual provista por los fundamentos teóricos. En esta tesina se describe un sistema de efectos implementable para un cálculo básico con efectos algebraicos y handlers, usando una nueva variación del tipado bidireccional para preservar la claridad y la estrecha relación con la teoría matemática subyacente. Este sistema se prueba seguro respecto a la semántica operacional y se lo implementa en Haskell, mostrando tanto la simplicidad de su formulación como su gran poder expresivo.Ítem Acceso Abierto Álgebra Lineal para Ingeniería(Iniciativa Latinoamericana de Libros de Texto Abiertos (LATIn), 2014) Argomedo Cornejo, Sergio; Herrera Tobar, Juan; Molina Alfaro, Katherina; Relos Paco, SantiagoLa programación matemática es una herramienta de modelado usada en el proceso de toma de decisiones, trata exclusivamente con funciones objetivos y restricciones lineales. Se utiliza en campos como la ingeniería, la economía, la gestión, y muchas otras áreas de la ciencia, la técnica y la industria. En todo problema de programación lineal se pueden identificar cuatro componentes básicos: (1) El conjunto de datos, (2) El conjunto de variables con sus dominios respectivos, (3) El conjunto de restricciones lineales del problema, (4) La función objetivo, que es una función lineal que debe ser optimizada (máximo o mínimo).Ítem Acceso Abierto Algoritmo divisivo de clustering con determinación automática de componentes(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2014-04-11) Vidal, Erica; Bayá, Ariel; Granitto, Pablo M.Cluster analysis es el estudio de algoritmos y métodos cuyo objetivo es encontrar una forma conveniente y válida de organizar un conjunto de datos en grupos. Entre sus múltiples aplicaciones se encuentran la segmentación de imágenes, la clasificación automática de documentos o archivos multimedia, la detección de comunidades en redes sociales y la identificación de genes con funciones similares, por nombrar algunas. En este trabajo exploramos soluciones a problemas abiertos del área de cluster analysis y como resultado desarrollamos un nuevo algoritmo de clustering, DHclus, que descubre clusters con formas arbitrarias en los datos, determina automáticamente la cantidad de componentes presentes en los datos (incluso cuando hay clusters a diferentes escalas en un mismo problema) y además selecciona los parámetros que afectan su performance. Además implementamos el algoritmo como un paquete de software libre para el entorno de programación R y se encuentra disponible para toda la comunidad.Ítem Acceso Abierto An Assistant for Loading Learning Object Metadata: An Ontology Based Approach(Informing Science Institute, 2013) Casali, Ana; Deco, Claudia; Romano, Agustín; Tomé, GuillermoIn the last years, the development of different Repositories of Learning Objects has been increased. Users can retrieve these resources for reuse and personalization through searches in web repositories. The importance of high quality metadata is key for a successful retrieval. Learning Objects are described with metadata usually in the standard IEEE LOM. We have designed and implemented a Learning Object Metadata ontology (LOM ontology) that establishes an intermediate layer offering a shared vocabulary that allows specifying restrictions and gives a common semantics for any application which uses Learning Objects metadata. Thus, every change in the LOM ontology will be reflected in the different applications that use this ontology with no need to modify their code. In this work, as a proof of concept, we present an assistant prototype to help users to load these Objects in repositories. This prototype automatically extracts, restricts and validates the Learning Objects metadata using the LOM ontology.Ítem Acceso Abierto Análisis de calidad y confianza en los metadatos de objetos de aprendizaje recuperados(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2011-05-11) Álvarez Machicote, Damián; Deco, Claudia; Bender, CristinaEl importante crecimiento que ha tenido Internet y en particular la World Wide Web, se debe a su habilidad para facilitar la posibilidad de compartir e intercambiar información y recursos. Con la necesidad de tener acceso a esta gran cantidad de información han surgido diversos problemas en su recuperación. Este problema también sucede en el escenario de los repositorios educacionales. Sin embargo aquí no sólo se busca la documentación relevante sino que también se exige una cuidada calidad de contenido y que la misma presente ciertas características de interés o de necesidad para el usuario. Los elementos a recuperar se llaman objetos de aprendizaje, los cuales son elementos para la instrucción, aprendizaje o enseñanza basada en computadora. Los mismos se encuentran almacenados en contenedores conocidos como Repositorios de Objetos de Aprendizaje donde el objetivo principal es organizarlos y mantenerlos disponibles para diferentes usos. En este trabajo se propone medir la calidad y confiabilidad de objetos de aprendizaje con el fin de que los recursos electrónicos de mayor calidad y confianza escalen las primeras posiciones en los resultados de búsqueda y que además se personalicen al perfil del usuario que realiza la búsqueda. La medición de la calidad de los objetos de aprendizaje es llevada a cabo por un fuerte y completo análisis de los metadatos siguiendo el estándar de metadatos LOM (Learning Object Metadata) y la medición de la confiabilidad se obtiene mediante el análisis de las calificaciones otorgadas por los usuarios. Para la implementación de este trabajo se ha desarrollado una aplicación web prototipo que permite realizar búsquedas en un repositorio mediante palabras claves. El objetivo principal será la verificación de la mejora de calidad y confiabilidad de los objetos de aprendizaje recuperados.Ítem Acceso Abierto Análisis de modelos de memoria en plataformas de virtualización. Formalización de un prototipo funcional de plataforma con Cache y Tlb(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2012-04-13) Chimento, Jesús Mauricio M.; Luna, Carlos D.La virtualización es una técnica que se utiliza para correr múltiples sistemas operativos en una sola máquina física, pero creando la ilusión de que en realidad cada uno de estos sistemas operativos corre dentro de una Máquina Virtual diferente. El Monitor de Máquinas Virtuales es el encargado de administrar los recursos compartidos por los sistemas operativos que corren en las Maquinas Virtuales de manera que todos se puedan ejecutar adecuadamente. En particular, el acceso y uso de la Memoria Principal (i.e. Memoria RAM) es un aspecto crítico que el Monitor de Máquinas Virtuales debe controlar. En este trabajo se presenta un modelo formal idealizado de un Monitor de Máquinas Virtuales, sobre el cual se demuestran propiedades que garantizan el uso correcto de las acciones provistas por dicho Monitor a los distintos sistemas operativos virtualizados y el correcto acceso y uso de la Memoria Principal por parte de estos sistemas operativos. Además, se utiliza el asistente de pruebas de Coq para las demostraciones y posterior extracción de una versión ejecutable del modelo.Ítem Acceso Abierto Análisis Formal de la Instalación de Aplicaciones en MIDP 3.0.(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2014-12-19) Prince, Cristián Germán; Luna, Carlos DanielHoy en día, la telefonía celular se ha vuelto imprescindible para el desarrollo de la vida cotidiana. Además de sus servicios básicos de comunicación, los dispositivos móviles permiten almacenar datos confidenciales y, descargar y ejecutar aplicaciones, lo que conlleva un riesgo para la integridad y privacidad de la información que uno tiene. Es por ello que la seguridad pasa a tener un rol fundamental en el desarrollo y en el éxito de las tecnologías móviles. En la plataforma Java Micro Edition, el ambiente de ejecución estándar para teléfonos celulares está provisto por el Perfil para Dispositivos de Información Móviles (MIDP, por sus siglas en Inglés). Para la versión 2.0 de MIDP, Zanella, Luna y Betarte, propusieron la primera especificación formal de su modelo de seguridad. Se construyó un modelo abstracto en el Cálculo de Construcciones Inductivas (CIC) del estado de un dispositivo y de los posibles eventos que inducen cambios en dicho estado. Además, se han demostrado propiedades deseables para cualquier implementación del estándar, lo que lo convierte en una poderosa herramienta para razonar sobre el modelo de seguridad y facilitar su comprensión. Una primera extensión de este modelo fue realizada por Gustavo Mazeikis, quien realizó la formalización del Modelo de Autorización para MIDP 3.0 (la más reciente versión del perfil) y demostró la preservación de las propiedades de seguridad consideradas para MIDP 2.0. En este trabajo se presenta una nueva extensión de la especificación formal referida. Este proyecto conserva las propiedades de seguridad demostradas por Mazeikis e incorpora el manejo y almacenamiento de vendedores y certificados en el dispositivo que son utilizados al momento de la instalación, como así también cambios sustanciales sobre la definición de este evento crítico. El aporte principal de este trabajo es la verificación sobre el vendedor de una aplicación y su certificado asociado, abarcando el caso en que éste no posea uno. De esta manera, un usuario puede instalar aplicaciones de vendedores cuyos certificados autentican que son confiables o aplicaciones de vendedores que no poseen dicha certificación, como podría ser el caso de un programador que desarrolla una aplicación para uso propio o compartido. En el marco del formalismo extendido, se propone un algoritmo para realizar la instalación de una aplicación y se demuestra su corrección.Ítem Desconocido Aplanado eficiente de grandes modelos Modélica(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2015-08-19) Botta, Mariano; Bergero, Federico; Kofman, ErnestoModelica es un lenguaje de modelado de todo tipo de sistemas. Gracias a su metodología de programación orientada a objetos y a la posibilidad de vectorizar los medelos, mediantes arreglos y ecuaciones for, Modelica facilita la escalabilidad de modelos. Las herramientas existentes de compilación de modelos Modelica desaprovechan estas características de los modelos, expandiendo las ecuaciones for y eliminando la vectorización del mismo desde las primeras etapas de compilación. Esto reduce gravemente la performance del compilador. En esta tesina, desarrollamos un algoritmo de aplanado que mantiene la vectorización de los modelos, conservando los arreglos y las ecuaciones for. También fue necesario crear un algoritmo de resolución de componentes conexas en un grafo vectorizado para poder resolver las conexiones existentes en los modelos.Ítem Desconocido Aplanado eficiente de grandes sistemas de ecuaciones algebraico-diferenciales(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2020-12) Marzorati, Denise; Kofman, Ernesto; Fernandez, JoaquínDiversas ramas de la ciencia y de la técnica utilizan modelos matemáticos de los sistemas que estudian. Sobre estos modelos matemáticos se realizan simulaciones para analizar el comportamiento de dichos sistemas. Dado que estas técnicas son aplicadas a sistemas cada vez más complejos y grandes, permanentemente surgen nuevos desafíos. Los sistemas dinámicos continuos suelen ser representados mediante sistemas de ecuaciones diferenciales algebraicas (EDAs), y su simulación requiere de la resolución numérica de dichas ecuaciones, que puede hacerse a través de algoritmos específicos conocidos como solvers. Los solvers requieren que los sistemas de ecuaciones estén escritos y ordenados de cierta forma, que generalmente no coincide con la manera en la que un/una especialista describe los modelos. Para convertir los modelos desde una representación orientada a objetos, tal como la usada por los lenguajes de modelado modernos, en una representación de ecuaciones ordenadas y estructuradas, como la requieren los solvers, se recurre a diversos algoritmos que conforman un "compilador de modelos". Estos algoritmos están basados, en su mayor parte, en la Teorı́a de Grafos. En esta tesina se describe la formulación e implementación de nuevos algoritmos para convertir modelos orientados a objetos de gran escala en sistemas de ecuaciones. Estos algoritmos están principalmente basados en la teorı́a de grafos y tienen la propiedad de lograr un costo computacional constante con respecto al tamaño de los arreglos involucrados. Para esto, hacen uso de una nueva categoría de grafos denominados "Grafos Basados en Conjuntos", que permiten representar y manipular conjuntos de vértices y aristas de manera compacta.Ítem Desconocido Aplicación bioinformática para predicción de genes regulados por microARNs en plantas(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2011-05-11) Chorostecki, Uciel; Palatnik, Javier; Bulacio, PilarLos microARNs (o miARNs) son ARN no codificantes que regulan la expresión génica en animales y plantas, implicados en procesos biológicos muy variables, como el desarrollo, la diferenciación y el metabolismo. Estos pequeños ARNs de aproximadamente 21 nucleótidos reconocen secuencias parcialmente complementarias en los ARNm blanco, provocando su corte o arresto de la traducción. Los microARNs han saltado rápidamente a la primera plana del interés de la comunidad científica como un nuevo nivel en el control de la expresión génica en eucariotas. Estudios recientes han puesto de manifiesto que los microARNs están estrechamente involucrados en distintas enfermedades de importancia. Algunos tienen relación con distintos tipos de Cáncer y otros están relacionados con enfermedades cardíacas donde los niveles de expresión de microARNs específicos cambian en el corazón humano cuando están presentes dichas enfermedades. Los cálculos actuales consideran que entre el 20% y el 40% de los genes de humanos se encuentran regulados por microARNs. Este trabajo propone estudiar en forma automatizada a los microARNs en plantas, su biogénesis y los genes que regulan, a través de un enfoque multidisciplinario. Para esto presentaremos una estrategia bioinformática para la identificación de genes blancos de microARNs y además una herramienta web para el análisis y selección de los mejores genes blancos candidatos. Considerando que muchos de estos ARNs pequeños están ampliamente distribuidos en plantas, la herramienta a desarrollar estará basada principalmente en la conservación durante la evolución de la interacción del par microARN-gen blanco en distintas especies. Además, al estar los microARNs utilizados en este proyecto conservados en especies de interés agronómico las aplicaciones potenciales de este trabajo propuesto podrían ser inmediatas.Ítem Desconocido Aprendizaje Colaborativo apoyado por Computador(Iniciativa Latinoamericana de Libros de Texto Abiertos (LATIn), 2014) Collazos, César; Muñoz, Jaime; Hernández, YoslyMarx, en 1884, define el término trabajo cooperativo como “múltiples individuos trabajando juntos de una manera planificada en un mismo proceso de producción o en procesos de producción diferentes pero conectados” [MAR84]. Por otro lado, se afirma que un trabajo cooperativo “está formado por procesos de trabajo relacionados. Cada proceso genera ciertas tareas a ser desarrolladas por los miembros del equipo de trabajo para el cumplimiento de los objetivos” [COR04]. Bannon y Schmidt establecen que hay muchas formas de trabajo cooperativo, por ejemplo: trabajo colaborativo, trabajo colectivo, trabajo coordinado, y trabajo de articulación [BAN89a].Ítem Desconocido Aprendizaje multiclase de videoimágenes deportivas con arquitecturas profundas(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2016-03-08) Escarrá, Martín; Grinblat, Guillermo; Granitto, PabloLas arquitecturas profundas permiten representar de manera compacta funciones altamente no lineales. Entre ellas, las redes convolucionales han adquirido gran protagonismo en la clasificación de imágenes debido a la invarianza traslacional de sus features. Este trabajo propone investigar un abordaje naïve para la clasificación de videoimágenes con redes profundas, comparar la performance de redes pre-entrenadas con la de redes ad-hoc y finalmente crear un mecanismo de visualización de la representación interna de la arquitectura. Como ejemplo de aplicación se utilizarán segmentos de videos deportivos con diferentes acciones grupales.Ítem Desconocido Aproximando los escalares de un lambda-cálculo algebraico mediante cotas inferiores(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2011-12-14) Buiras, Pablo; Jaskelioff, MauroEl lambda-cálculo algebraico es un cálculo no tipado en el que se pueden realizar combinaciones lineales de términos, con aplicaciones a la computación probabilística, la computación paralela y la computación cuántica. La reducción en este cálculo está dada por un sistema de reescritura sujeto a varias restricciones que garantizan su confluencia. Existen varios sistemas de tipos para este cálculo, cada uno de los cuales representa un paso más en la dirección a un cálculo algebraico tipado general. En este trabajo, se presenta un sistema de tipos para el lambda-cálculo algebraico que se basa en la idea de aproximar los escalares que aparecen en los términos mediante cotas inferiores, reflejando esta información en los tipos. Se demuestra que este cálculo tiene subject reduction y normalización fuerte, y como corolario se obtiene una forma más sencilla de demostrar la confluencia del sistema de reescritura, eliminando las restricciones a la reducción de la versión no tipada.Ítem Desconocido Asistente para el depósito de documentos en Repositorios utilizando extracción semiautomática de metadatos(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2015-09-18) Fontanarrosa, Santiago; Casali, Ana; Deco, ClaudiaEl desarrollo de Repositorios Institucionales de Acceso Abierto es prioritario para la preservación y diseminación de conocimiento abierto y accesible para toda la ciudadanía. En particular, la creación de repositorios de objetos digitales educativos en las universidades públicas de Argentina, es una prioridad en el marco de las políticas del Ministerio de Ciencia, Tecnología e Innovación y el Consejo Interuniversitario Nacional. El objetivo de estos repositorios es viabilizar de una forma eficiente el almacenamiento, clasificación, búsqueda y reutilización de estos recursos educacionales. En este trabajo se propone facilitar el proceso de depósito de objetos digitales educativos en repositorios modificando el flujo de carga estándar de plataformas tales como DSpace. Ademas, se ha propuesto una arquitectura de un Asistente para la Extracción Automática de algunos metadatos de los documentos. Estos metadatos extraídos automáticamente son validados por el usuario en el proceso de descripción del objeto. Para el asistente, se analizaron distintas herramientas de extracción y en particular se propuso utilizar una combinación de las mismas. Un prototipo de este asistente se implementará en el Repositorio RepHip de la Universidad Nacional de Rosario. De esta forma se espera ayudar al usuario en el proceso de carga disminuyendo así su trabajo y mejorando la cantidad y la calidad de los metadatos cargados.Ítem Acceso Abierto Brecha de dualidad y límites de tipo Ramsey para familias de grafos de intersección de rectángulo(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2021-03-10) Capretto, Margarita; Chalermsook, Parinya; Torres , PabloEn teoría de grafos, el problema de encontrar el conjunto independiente máximo (MIS, por sus siglas en inglés), y el problema de encontrar el conjunto de golpe mínimo (MHS), son de vital relevancia en el campo de estudi. En cuanto a la complejidad computacional, ambos son NP difíciles (incluso de aproximación) para grafos en general. En esta tesina, nos centramos en las familias de grafos de rectángulos, cuadrados y de ganchos, que son entradas más simples para esta problemática. Estudiamos, asimismo, algunos problemas combinatorios extremales, y analizamos de qué manera pueden utilizarse para obtener algoritmos de aproximación para MIS y MHS en estas clases de grafos.Ítem Acceso Abierto Búsqueda de mejoras en la detección automática de estrellas variables(Facultad de Ciencias Exactas, Ingeniería y Agrimensura. Universidad Nacional de Rosario, 2021-05) Rodríguez, Jeremías; Granitto, Pablo M.; Cabral, Juan B.La astronomía está atravesando una profunda transformación debido al desarrollo de modernos telescopios terrestres y satelitales, que han fomentado la realización de enormes relevamientos astronómicos. Ante la abrumadora cantidad y calidad de los datos generados, se vuelve imprescindible el uso de procedimientos automatizados. Consecuentemente, diversas técnicas de aprendizaje automatizado y minería de datos surgen como una elección natural a la hora de analizar y extraer información de modernos datasets astronómicos. En este trabajo se hará uso de mediciones generadas por el relevamiento VVV del infrarrojo cercano (realizado en Parnal, Chile), que relevó aproximadamente 109 estrellas durante un período de 5 años. Se aplicarán diversas técnicas de aprendizaje automatizado con el objeto de identificar estrellas de tipo RR Lyrae, las cuales son extremadamente valiosas pues permiten estimar distancias a viejas poblaciones estelares. En concreto, se hará uso de clasificadores de tipo Random Forest y Support Vector Machine, haciendo ́énfasis en comprender por qué los primeros parecen tener significativamente mejor performance en este tipo de datasets astronómicos.