Menú Abrir/cerrar menú del sitio

Titulo - Tesis defendidas

Tesis defendidas

Tabla tesis - ingeniería Informática

Indicadores
  Programa de doctorado actual Programas de doctorados anteriores
Tesis defendidas 40 131
Premios extraordinarios - 4
Tesis doctorales en cotutela 3 4
Tesis doctorales internacionales 18 61
Doctorados industriales 1 -

 

Contenido de XSL

Tesis defendidas del programa actual

Compendio de métodos para caracterizar la geometría de los tejidos cerebrales a partir de imágenes de resonancia magnética por difusión del agua

CANALES RODRIGUEZ, ERICK JORGE

Dirección:
SALVADOR CIVIL, RAYMOND;
YURRAMENDI MENDIZABAL, JESUS MARIA
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2016
Resumen:

La técnica de imagen de resonancia magnética por difusión es una modalidad de imagen de resonancia magnética empleada para estudiar el proceso de difusión molecular del agua en tejidos biológicos. En los últimos años esta técnica ha sido la principal herramienta para estudiar la microestructura y organización espacial de los tejidos del cerebro de forma no invasiva. Entre los métodos de análisis que se han propuesto para modelar e interpretar los datos observados, el modelo del tensor de difusión fue el primero en considerar la anisotropía del proceso de difusión del agua en el cerebro, donde la difusión ocurre de forma desigual en diferentes direcciones debido a la disposición espacial de los tejidos. Sin embargo, en este modelo se asume que el proceso de difusión tiene una geometría elipsoidal, suposición inválida para muchas regiones del cerebro que compromete la interpretación de los resultados. Tal limitación ha impulsado el reciente desarrollo de nuevos modelos teóricos, esquemas de medición y algoritmos de reconstrucción. A pesar de la notable mejora que introducen estos métodos en relación al tensor de difusión, algunos de ellos tienen limitaciones prácticas y su formulación teórica aún se encuentra en creciente desarrollo; en otros, los métodos numéricos empleados en la estimación no son necesariamente óptimos debido a que han obviado aspectos que podrían ser relevantes. Con el objetivo de extender y perfeccionar varias de las herramientas modernas dedicadas a la modelización de imágenes de resonancia magnética por difusión, en el marco de esta tesis se presenta un compendio de métodos para obtener estimadores más realistas de la estructura arquitectónica del cerebro humano. Las técnicas desarrolladas en este compendio encuentran aplicación en las neurociencias, la medicina y la psiquiatría. Estas han sido publicadas en revistas científicas de alto impacto y son actualmente empleadas en el estudio de las alteraciones cerebrales en pacientes con enfermedades mentales.

Ver más...

Design science research in PhD education: designing for assistance tools

PEREZ CONTELL, JEREMIAS

Dirección:
DIAZ GARCIA, OSCAR
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

scholars. Major conferences have tracks dedicated to DSR, and even leading journals have published special issues on it. In line with this momentum, DSR has also gained acceptance among PhD students. Indeed, DSR is well regarded for its ability to bring together theoretical and practical knowledge, addressing both rigor and relevance. But in exchange, DSR calls for high levels of commitment and maturity. PhD students, as they are transitioning towards becoming independent researchers, usually lack such maturity. On top of that, the lack of widely accepted software tools for conducting DSR does not help. This Thesis is aimed at providing PhD students with tool support for carrying out DSR. To that end, we focus on problematic situations related to four basic activities conducted throughout the doctorate: inquiry, reading, writing and peer review. For each of these problems, a purposeful artifact is designed, developed and evaluated with real stakeholders. The outcome: DScaffolding and Review&Go, two browser extensions for Google Chrome currently in use by practitioners.

Ver más...

Inteligencia computacional en sistemas de teleasistencia en domicilios

MORENO FERNANDEZ DE LECETA, AITOR

Dirección:
GRAÑA ROMAY, MANUEL MARIA;
LOPEZ GUEDE, JOSE MANUEL
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

Este trabajo presenta un sistema inteligente de predicción del comportamiento de cara a prevenir situaciones de riesgo en el hogar, y que está orientado principalmente orientado a personas mayores. El sistema presenta una modelo híbrido basado en Reglas Heurísticas introducidas por expertos en el dominio, y un Módulo de Detección Automática de Patrones, conformado por un sistema combinado de clasificadores basados en técnicas de Inteligencia Artificial. El sistema ha sido probado en entornos reales y productivos en diversos domicilios. Para lograrlo, el sistema utiliza por un lado la información de sensores simples en el hogar, por otro el conocimiento de sus actividades físicas recopiladas por aplicaciones móviles y por último la información de salud personalizada basada en informes clínicos codificados en el sistema. Actualmente, se está implantando en condiciones reales, con una precisión superior al 81%.

Ver más...

Methodological contributions by means of machine learning methods for automatic music generation and classification

GOIENETXEA URKIZU, IZARO

Dirección:
CONKLIN , DARRELL;
MENDIALDUA BEITIA, IÑIGO;
SIERRA ARAUJO, BASILIO
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

Ikerketa lan honetan bi gai nagusi landu dira: musikaren sorkuntza automatikoa eta sailkapena. Musikaren sorkuntzarako bertso doinuen corpus bat hartu da abiapuntu moduan doinu ulergarri berriak sortzeko gai den metodo bat sortzeko. Doinuei ulergarritasuna hauen barnean dauden errepikapen egiturek ematen dietela suposatu da, eta metodoaren hiru bertsio nagusi aurkeztu dira, bakoitzean errepikapen horien definizio ezberdin bat erabiliz. Musikaren sailkapen automatikoan hiru ataza garatu dira: generoen sailkapena, familia melodikoen taldekatzea eta konposatzaileen identifikazioa. Musikaren errepresentazio ezberdinak erabili dira ataza bakoitzerako, eta ikasketa automatikoko hainbat teknika ere probatu dira, emaitzarik hoberenak zeinek ematen dituen aztertzeko. Gainbegiratutako sailkapenaren alorrean ere binakako sailkapenaren gainean lana egin da, aurretik existitzen zen metodo bat optimizatuz. Hainbat datu baseren gainean probatu da garatutako teknika, baita konposatzaile klasikoen piezen ezaugarriez osatutako datu base batean ere.

Ver más...

K-means for massive data

CAPO RANGEL, MARCO VINICIO

Dirección:
LOZANO ALONSO, JOSE ANTONIO;
PEREZ MARTINEZ, ARITZ
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

The K-means algorithm is undoubtedly one of the most popular clustering analysis techniques, due to its easiness in the implementation, straightforward parallelizability and competitive computational complexity, when compared to more sophisticated clustering alternatives. Unfortunately, the progressive growth of the amount of data that needs to be analyzed, in a wide variety of scientific fields, represents a significant challenge for the K-means algorithm, since its time complexity is dominated by the number of distance computations, which is linear with respect to both the number of instances and dimensionality of the problem. This fact difficults its scalability on such massive data sets. Another major drawback of the K-means algorithm corresponds to its high dependency on the initial conditions, which not only may affect the quality of the obtained solution, but that may also have major impact on its computational load, as for instance, a poor initialization could lead to an exponential running time in the worst case scenario. In this dissertation we tackle all these difficulties. Initially, we propose an approximation to the K-means problem, the Recursive Partition-based K-means algorithm (RPKM). This approach consists of recursively applying a weighted version of K-means algorithm over a sequence of spatial-based partitions of the data set. From one iteration to the next, a more refined partition is constructed and the process is repeated using the optimal set of centroids, obtained at the previous iteration, as initialization. From practical stand point, such a process reduces the computational load of K-means algorithm as the number of representatives, at each iteration, is meant to be much smaller than the number of instances of the data set. On the other hand, both phases of the algorithm are embarrasingly parallel. From the theoretical standpoint, and in spite of the selected partition strategy, one can guarantee the non-repetition of the clusterings generated at each RPKM iteration, which ultimately implies the reduction of the total amount of K-means algorithm iterations, as well as leading, in most of the cases, to a monotone decrease of the overall error function. Afterwards, we report on a RPKM-type approach, the Boundary Weighted K-means algorithm (BWKM). For this technique the data set partition is based on an adaptative mesh, that adjusts the size of each grid cell to maximize the chances of each cell to have only instances of the same cluster. The goal is to focus most of the computational resources on those regions where it is harder to determine the correct cluster assignment of the original instances (which is the main source of error for our approximation). For such a construction, it can be proved that if all the cells of a spatial partition are well assigned (have instances of the same cluster) at the end of a BWKM step, then the obtained clustering is actually a fixed point of the K-means algorithm over the entire data set, which is generated after using only a small number of representatives in comparison to the actual size of the data set. Furthermore, if, for a certain step of BWKM, this property can be verified at consecutive weighted Lloyds iterations, then the error of our approximation also decreases monotonically. From the practical stand point, BWKM was compared to the state-of-the-art: K-means++, Forgy K-means, Markov Chain Monte Carlo K-means and Minibatch K-means. The obtained results show that BWKM commonly converged to solutions, with a relative error of under 1% with respect to the considered methods, while using a much smaller amount of distance computations (up to 7 orders of magnitude lower). Even when the computational cost of BWKM is linear with respect to the dimensionality, its error quality guarantees are mainly related to the diagonal length of the grid cells, meaning that, as we increase the dimensionality of the problem, it will be harder for BWKM to have such a competitive performance. Taking this into consideration, we developed a fully-parellelizable feature selection technique intended for the K-means algorithm, the Bounded Dimensional Distributed K-means algorithm (BDDKM). This approach consists of applying any heuristic for the K-means problem over multiple subsets of dimensions (each of which is bounded by a predefined constant, m<<d) and using the obtained clusterings to upper-bound the increase in the K-means error when deleting a given feature. We then select the features with the m largest error increase. Not only can each step of BDDKM be simply parallelized, but its computational cost is dominated by that of the selected heuristic (on m dimensions), which makes it a suitable dimensionality reduction alternative for BWKM on large data sets. Besides providing a theoretical bound for the obtained solution, via BDDKM, with respect the optimal K-means clustering, we analyze its performance in comparison to well-known feature selection and feature extraction techniques. Such an analysis shows BDDKM to consistently obtain results with lower K-means error than all the considered feature selection techniques: Laplacian scores, maximum variance and random selection, while also requiring similar or lower computational times than these approaches. Even more interesting, BDDKM, when compared to feature extraction techniques, such as Random Projections, also shows a noticeable improvement in both error and computational time. As a response to the high dependency of K-means algorithm to its initialization, we finally introduce a cheap Split-Merge step that can be used to re-start the K-means algorithm after reaching a fixed point, Split-Merge K-means (SMKM). Under some settings, one can show that this approach reduces the error of the given fixed point without requiring any further iteration of the K-means algorithm. Moreover, experimental results show that this strategy is able to generate approximations with an associated error that is hard to reach for different multi-start methods, such as multi-start Forgy K-means, K-means++ and Hartigan K-means. In particular, SMKM consistently generated the local minima with the lowest K-means error, reducing, on average, over 1 and 2 orders of magnitude of relative error with respect to K-means++ and Hartigan K-means and Forgy K-means, respectively. Not only does the quality of the solution obtained by SMKM tend to be much lower than the previously commented methods, but, in terms of computational resources, SMKM also required a much lower number of distance computations (about an order of magnitude less) to reach the lowest error that they achieved.

Ver más...

Cloud point labelling in optical motion capture systems

JIMENEZ BASCONES, JUAN LUIS

Dirección:
GRAÑA ROMAY, MANUEL MARIA
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

This Thesis deals with the task of point labeling involved in the overall workflow of Optical Motion Capture Systems. Human motion capture by optical sensors produces at each frame snapshots of the motion as a cloud of points that need to be labeled in order to carry out ensuing motion analysis. The problem of labeling is tackled as a classification problem, using machine learning techniques as AdaBoost or Genetic Search to train a set of weak classifiers, gathered in turn in an ensemble of partial solvers. The result is used to feed an online algorithm able to provide a marker labeling at a target detection accuracy at a reduced computational cost. On the other hand, in contrast to other approaches the use of misleading temporal correlations has been discarded, strengthening the process against failure due to occasional labeling errors. The effectiveness of the approach is demonstrated on a real dataset obtained from the measurement of gait motion of persons, for which the ground truth labeling has been verified manually. In addition to the above, a broad sight regarding the field of Motion Capture and its optical branch is provided to the reader: description, composition, state of the art and related work. Shall it serve as suitable framework to highlight the importance and ease the understanding of the point labeling.

Ver más...

Ikasketa automatikoan oinarritutako ekarpenak pertsona-konputagailu elkarrekintza hobetzeko/contributions to improve human-computer interaction using machine learning

YERA GIL, AINHOA

Dirección:
ARBELAIZ GALLEGO, OLATZ;
MUGUERZA RIVERO, JAVIER FRANCISCO
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

This PhD thesis contributes on designing and applying data mining techniques targeting the improvement of Human Computer Interaction (HCI) in different contexts. The main objectives of the thesis are to design systems based on data mining methods for modelling behaviour on interaction and use data. Moreover, having to work often in unsupervised learning contexts has lead to contribute methodologically to clustering validation regardless of the context; an unsolved problem in machine learning. Cluster Validity Indexes (CVIs) partially solve this problem by providing a quality score of the partitions, but none of them has proven to robustly face the broad range of conditions. In this regard, in the first contribution several CVI decision fusion (voting) approaches are proposed, showing that they are promising strategies for clustering validation. In the Human-Computer Interaction context, the contributions are structured in three different areas. The accessibility area is analysed in the first one where an efficient system to automatically detect navigation problems of users, with and without disabilities, is presented. The next contribution is focused on the medical informatics and it analyses the interaction in a medical dashboard used to support the decision-making of clinicians (SMASH). On the one hand, connections between visual and interaction behaviours on SMASH are studied. On the other hand, based on the interaction behaviours observed in SMASH, two main cohorts of users are automatically detected and characterised: primary (pharmacists) vs secondary (non-pharmacists). Finally, two contributions on the e-Services area are made, focusing on their interaction and use respectively. In the first one, potential students aiming to enrol the University of the Basque Country (UPV/EHU) are satisfactorily modelled based on the interactive behaviours they showed in the web of this university. The second one, empirically analyses and characterises the use of e-Government services in different European countries based on survey data provided by Eurostat. LABURPENA: Doktorego-tesi honek, hainbat testuingurutan, Pertsona-Konputagailu Elkarrekintzaren (PKE) hobekuntzarako datuen meatzaritzako teknikak diseinatzen eta aplikatzen laguntzen du. Tesiaren helburu nagusiak datu-meatzaritzako metodoetan oinarritutako sistemak diseinatzea da, elkarrekintza- eta erabilera-datuen portaera modelatzeko. Gainera, gainbegiratu gabeko ikasketa-testuinguruekin sarritan lan egin behar izanak, datuen testuinguru guztiei zuzendutako clusteringa baliozkotzeari buruzko ekarpen metodologikoa egitera bultzatu gaitu. Kluster baliozkotze indizeek (CVI) partizioen kalitate-neurri bat ematen duten heinean, arazo hau partzialki ebazten dute, baina horietako batek ere ez du erakutsi egoeren espektro handiari aurre egiteko gaitasuna. Ildo honetatik, lehen kontribuzioan CVIen arteko erabaki-fusioen (bozketa) hainbat sistema proposatzen ditugu, eta klusteringa baliozkotzeko estrategia eraginkorrak direla erakusten dugu. Pertsona-Konputagailu Elkarrekintzaren testuinguruan, ekarpenak hiru arlotan egituratuta daude. Irisgarritasun arloa lehenengo kontribuzioan aztertzen da, sistema eraginkor bat aurkeztuz, desgaitasuna duten eta desgaitasuna ez duten erabiltzaileen nabigazio-arazoak automatikoki detektatzen dituena. Hurrengo ekarpena informatika-medikoan zentratzen da eta medikuei erabakiak hartzeko jardueretan laguntzeko erabiltzen den osasun-arbela mediko baten (SMASH) elkarrekintza aztertzen du. Batetik, SMASH arbelean portaera bisualen eta interaktiboen arteko loturak aztertzen dira. Bestalde, SMASH arbelean antzemandako portaera interaktiboen arabera, bi erabiltzaile talde nagusi detektatu eta ezaugarritu dira: lehen mailakoak (farmazialariak) eta bigarren mailakoak (ez farmazialariak). Azkenik, bi kontribuzio egiten dira zerbitzu elektronikoen (e-Zerbitzuen) arloan, elkarrekintza eta erabileran oinarrituz, hurrenez hurren. Lehenengoan, Euskal Herriko Unibertsitatean (UPV/EHU) izena eman nahi duten ikasle potentzialak modu eraginkorrean modelatu dira unibertsitate honen webgunean erakutsitako jokabide interaktiboen arabera. Bigarrenean, gobernuko e-Zerbitzuen erabilera aztertu da Europako hainbat herrialdetan, Eurostatek emandako inkesta-datuetan oinarrituz. RESUMEN: Esta tesis doctoral contribuye al diseño y la aplicación de técnicas de minería de datos dirigidas a la mejora de la Interacción Persona-Computadora (IPC) en diferentes contextos. Los objetivos principales de la tesis son diseñar sistemas basados en métodos de minería de datos para modelar el comportamiento en datos de interacción y uso. Además, como los contextos de aprendizaje no supervisado han sido una constante en nuestro trabajo, hemos contribuido metodológicamente a la validación de clustering independientemente del contexto de los datos; problema no resuelto en el aprendizaje automático. Los índices de validación de cluster (CVI) resuelven parcialmente este problema al proporcionar un valor cuantitativo de calidad de las particiones, pero ninguno de ellos ha demostrado poder enfrentarse de manera robusta en una amplia gama de condiciones. En este sentido, en la primera contribución se proponen varios sistemas de fusión de decisiones (votaciones) entre CVIs, demostrando que son estrategias prometedoras para la validación de cluster. En el contexto de Interacción-Persona Computador, las contribuciones están estructuradas en tres áreas diferentes. En la primera de ellas se analiza el área de accesibilidad, presentando un sistema eficiente para detectar automáticamente los problemas de navegación de los usuarios, con y sin discapacidad. La siguiente contribución se centra en la informática médica y analiza la interacción en una pizarra médica web (SMASH) utilizada para asistir en la toma de decisiones de los médicos. Por un lado, se estudian las conexiones entre los comportamientos visuales y de interacción en SMASH. Por otro lado, en base a los comportamientos de interacción observados en SMASH, se detectan y caracterizan automáticamente dos grupos principales de usuarios: primario (farmacéuticos) y secundario (no farmacéuticos). Finalmente, se realizan dos contribuciones en el área de servicios electrónicos, centrándose en su interacción y uso, respectivamente. En la primera, se modelan satisfactoriamente los estudiantes que potencialmente desean matricularse en la Universidad del País Vasco (UPV / EHU), en función de los comportamientos interactivos que muestran en la web de esta universidad. La segunda contribución, analiza empíricamente y caracteriza el uso de los servicios de gobierno electrónico en diferentes países europeos en base a datos de encuestas proporcionados por Eurostat.

Ver más...

Long Life Application dedicated to smart-* usage.

KARCHOUD , RIADH

Dirección:
ILLARRAMENDI ECHAVE, MARIA ARANZAZU
Menciones:
Tésis Internacional
Tésis en Cotutela
Calificación:
Notable
Año:
2017
Resumen:

Nowadays, mobile devices host many applications that are directly downloaded and installed from mobile application stores. The existence of such a large amount of apps for a myriad of purposes imposes a huge overhead on users, who are in charge of selecting, installing, and executing the appropiate apps, as well as deleting them when no longer needed. Moreover, these applications have mostly neglected to take into account the user¿s context, as they porpose static non-evolving scenarios. These applications serve for specific purposes and get deleted or forgotten most of the time after the first use. Furthermore, these apps fail to consider the, soon coming, connected world due to theri monolithic architecture implemented to work on single devices.

Ver más...

Towards a fully mobile publish/subscribe system

AMOZARRAIN PEREZ, UGAITZ

Dirección:
LARREA ALAVA, MIKEL
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

This PhD thesis makes contributions to support mobility and fault tolerance in a publish/subscribe system. Two protocols are proposed in order to support mobility of all devices in the system, including inside the event notification service. The protocols are designed with the idea that any change due to mobility is completely beyond our control and ability to predict. Moreover, the proposed solutions do not need to know neither the amount of nodes in the system nor their identities before starting, the system is able to adapt to new devices or disconnections and is able to keep operating correctly in a partitioned network. To do so we extend a previously proposed framework called Phoenix that already supported client mobility. Both protocols use a leader election mechanism to create a communication tree in a highly dynamic environment, and use a characteristic of that algorithm to detect topology changes and migrate nodes accordingly.

Ver más...

Semantic technologies for supporting KDD processes

ESNAOLA GONZALEZ, IKER

Dirección:
BERMUDEZ DE ANDRES, JESUS;
FERNANDEZ GONZALEZ, IZASKUN
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

Achieving a comfortable thermal situation within buildings with an efficient use of energy remains still an open challenge for most buildings. In this regard, IoT (Internet of Things) and KDD (Knowledge Discovery in Databases) processes may be combined to solve these problems, even though data analysts may feel overwhelmed by heterogeneity and volume of the data to be considered. Data analysts could benefit from an application assistant that supports them throughout the KDD process. This research work aims at supporting data analysts through the different KDD phases towards the achievement of energy efficiency and thermal comfort in tertiary buildings. To do so, the EEPSA (Energy Efficiency Prediction Semantic Assistant) is proposed, which aids data analysts discovering the most relevant variables for the matter at hand, and informs them about relationships among relevant data. This assistant leverages Semantic Technologies such as ontologies, ontology-driven rules and ontology-driven data access. More specifically, the EEPSA ontology is the cornerstone of the assistant. This ontology is developed on top of three ODPs (Ontology Design Patterns) and it is designed so that its customization to address similar problems in different types of buildings can be approached methodically.

Ver más...

Contributions from computational intelligence to healthcare data processing

GARMENDIA MUJICA, ASIER

Dirección:
GRAÑA ROMAY, MANUEL MARIA;
LOPEZ GUEDE, JOSE MANUEL
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2016
Resumen:

The increasing ability to gather, store and process health care information, through the electronic health records and improved communication methods opens the door for new applications intended to improve health care in many different ways. Crucial to this evolution is the development of new computational intelligence tools, related to machine learning and statistics. In this thesis we have dealt with two case studies involving health data. The first is the monitoring of children with respiratory diseases in the pediatric intensive care unit of a hospital. The alarm detection is stated as a classification problem predicting the triage selected by the nurse or medical doctor. The second is the prediction of readmissions leading to hospitalization in an emergency department of a hospital. Both problems have great impact in economic and personal well being. We have tackled them with a rigorous methodological approach, obtaining results that may lead to a real life implementation. We have taken special care in the treatment of the data imbalance. Finally we make propositions to bring these techniques to the clinical environment.

Ver más...

Contributions to the Modelling of Auditory Hallucinations, Social robotics, and Multiagent Systems

OZAETA RODRIGUEZ, LEIRE

Dirección:
CHYZHYK , DARYA;
GRAÑA ROMAY, MANUEL MARIA
Menciones:
Tésis Internacional
Calificación:
Sobresaliente
Año:
2021
Resumen:

The Thesis covers three diverse lines of work that have been tackled with the central endeavor of modeling and understanding the phenomena under consideration. Firstly, the Thesis works on the problem of finding brain connectivity biomarkers of auditory hallucinations, a rather frequent phenomena that can be related some pathologies, but which is also present in healthy population. We apply machine learning techniques to assess the significance of effective brain connections extracted by either dynamical causal modeling or Granger causality. Secondly, the Thesis deals with the usefulness of social robotics strorytelling as a therapeutic tools for children at risk of exclussion. The Thesis reports on the observations gathered in several therapeutic sessions carried out in Spain and Bulgaria, under the supervision of tutors and caregivers. Thirdly, the Thesis deals with the spatio-temporal dynamic modeling of social agents trying to explain the phenomena of opinion survival of the social minorities. The Thesis proposes a eco-social model endowed with spatial mobility of the agents. Such mobility and the spatial perception of the agents are found to be strong mechanisms explaining opinion propagation and survival.

Ver más...

Contributions to virtual reality

SEGURA LASA,ALVARO

Dirección:
FLOREZ ESNAL, JULIAN;
GARCIA ALONSO MONTOYA, ALEJANDRO
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

The thesis contributes in three Virtual Reality areas: ¿ Visual perception: a calibration algorithm is proposed to estimate stereo projection parameters in head-mounted displays, so that correct shapes and distances can be perceived, and calibration and control procedures are proposed to obtain desired accommodation stimuli at different virtual distances. ¿ Immersive scenarios: the thesis analyzes several use cases demanding varying degrees of immersion and special, innovative visualization solutions are proposed to fulfil their requirements. Contributions focus on machinery simulators, weather radar volumetric visualization and manual arc welding simulation. ¿ Ubiquitous visualization: contributions are presented to scenarios where users access interactive 3D applications remotely. The thesis follows the evolution of Web3D standards and technologies to propose original visualization solutions for volume rendering of weather radar data, e-learning on energy efficiency, virtual e-commerce and visual product configurators.

Ver más...

Contributions to Attributed Probabilistic Finite State Bi-Automata for Dialogue Management

SERRAS SAENZ MANEX

Dirección:
POZO ECHEZARRETA,MARIA ARANZAZU, DEL;
TORRES BARAÑANO, MARIA INES
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

Task-oriented Spoken Dialogue Systems (SDSs), also known as Conversational Assistants, have been generating a great deal of interest in recent years, as they can be used to automate repetitive and low-value tasks and processes which use a natural communication channel. One basic component of every task-oriented SDS is the Dialogue Manager (DM), which is responsible for tracking the current state of the conversation and for deciding the next action of the system. This dissertation intends to improve a data-driven framework based in stochastic finite-state transducers for DM modelling in task-oriented SDSs: the Attributed Probabilistic Finite State Bi-Automata (A-PFSBA). Several contributions are presented that enhance the A-PFSBA based DM in different aspects. First, its model generalisation mechanism is improved to better employ context, the semantic relation between dialogue states and the spatial relations of the dialogue state space. Second, the A-PFSBA theoretical framework is extended for policy-making. In the same way, multiple policies with different degrees of complexity are implemented following this formulation. Third, a simple-yet-effective algorithm is proposed to incrementally learn an initial DM, which can be adjusted to work under uncertainty. Finally, the potential of the A-PFSBA framework to be deployed in data scarcity and zero-data scenarios and its capability to bridge the gap between data-driven and rule-based paradigms for DM development is tested. The presented contributions have been validated using two well-known corpora: the Let¿s Go corpus and the Dialogue State Tracking Challenge 2 corpus. In order to validate the viability of the A-PFSBA framework in industrial scenarios, three applications that employ the A-PFSBA formulation and which have been validated by real users are also presented.

Ver más...

Ubiquitous volume rendering in the web platform

ARBELAIZ ARANZASTI ANDER

Dirección:
GARCIA ALONSO MONTOYA, ALEJANDRO;
MORENO GUERRERO,AITOR
Calificación:
Sobresaliente
Año:
2019
Resumen:

The main thesis hypothesis is that ubiquitous volume rendering can be achieved using WebGL. The thesis enumerates the challenges that should be met to achieve that goal. The results allow web content developers the integration of interactive volume rendering within standard HTML5 web pages. Content developers only need to declare the X3D nodes that provide the rendering characteristics they desire. In contrast to the systems that provide specific GPU programs, the presented architecture creates automatically the GPU code required by the WebGL graphics pipeline. This code is generated directly from the X3D nodes declared in the virtual scene. Therefore, content developers do not need to know about the GPU. The thesis extends previous research on web compatible volume data structures for WebGL, ray-casting hybrid surface and volumetric rendering, progressive volume rendering and some specific problems related to the visualization of medical datasets. Finally, the thesis contributes to the X3D standard with some proposals to extend and improve the volume rendering component. The proposals are in an advance stage towards their acceptance by the Web3D Consortium.

Ver más...

Camera perspective distortion in model-based visual localisation.

BARRENA ORUEECHEBARRIA, NAGORE

Dirección:
GARCIA ALONSO MONTOYA, ALEJANDRO;
SANCHEZ TAPIA, JAIRO ROBERTO
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

This thesis starts with a proposal for a collaborative global visual localization system. Then, it centres in a specific visual localisation problem: perspective distortion in template matching. The thesis enriches 3D point cloud models with a surface normal associated with each 3D point. These normals are computed using a minimization algorithm. Based in this new model, the thesis proposes an algorithm to increase the accuracy of visual localisation. The algorithm improves for template matching processes using surface normals. The hypothesis, `Given a 3D point cloud, surface orientation of the 3D points in a template matching process increases the number of inliers points found by the localisation system, that is, perspective compensation.' is objectively proved using a ground truth model. The ground truth is achieved through the design of a framework which using computer vision and computer graphics techniques carries out experiments without the noise of a real system, and prove in an objective way the hypothesis.

Ver más...

Computationally efficient deformable 3D object tracking with a monocular RGB camera

GOENETXEA IMAZ JON

Dirección:
DORNAIKA , FADI;
UNZUETA IRURTIA, LUIS
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

Monocular RGB cameras are present in most scopes and devices, including embedded environments like robots, cars and home automation. Most of these environments have in common a significant presence of human operators with whom the system has to interact. This context provides the motivation to use the captured monocular images to improve the understanding of the operator and the surrounding scene for more accurate results and applications. However, monocular images do not have depth information, which is a crucial element in understanding the 3D scene correctly. Estimating the three-dimensional information of an object in the scene using a single two-dimensional image is already a challenge. The challenge grows if the object is deformable (e.g., a human body or a human face) and there is a need to track its movements and interactions in the scene. Several methods attempt to solve this task, including modern regression methods based on Deep Neural Networks. However, despite the great results, most are computationally demanding and therefore unsuitable for several environments. Computational efficiency is a critical feature for computationally constrained setups like embedded or onboard systems present in robotics and automotive applications, among others. This study proposes computationally efficient methodologies to reconstruct and track three-dimensional deformable objects, such as human faces and human bodies, using a single monocular RGB camera. To model the deformability of faces and bodies, it considers two types of deformations: non-rigid deformations for face tracking, and rigid multi-body deformations for body pose tracking. Furthermore, it studies their performance on computationally restricted devices like smartphones and onboard systems used in the automotive industry. The information extracted from such devices gives valuable insight into human behaviour a crucial element in improving human-machine interaction. We tested the proposed approaches in different challenging application fields like onboard driver monitoring systems, human behaviour analysis from monocular videos, and human face tracking on embedded devices.

Ver más...

Enriching remote labs with computer vision and drones

KHATTAR , FAWZI

Dirección:
DORNAIKA , FADI;
LUTHON , FRANCK
Menciones:
Tésis Internacional
Tésis en Cotutela
Calificación:
Sobresaliente
Año:
2018
Resumen:

With the technological advance, new learning technologies are being developed in order to contribute to better learning experience. In particular, remote labs constitute an interesting and a practical way that can motivate nowadays students to learn. The studen can at anytime, and from anywhere, access the remote lab and do his lab-work. Despite many advantages, remote tecnologies in education create a distance between the student and the teacher. Without the presence of a teacher, students can have difficulties, if no appropriate interventions can be taken to help them. In this thesis, we aim to enrich an existing remote electronic lab made for engineering students called "LaboREM" (for remote Laboratory) in two ways: first we enable the student to send high level commands to a mini-drone available in the remote lab facility. The objective is to examine the front panels of electronic measurement instruments, by the camera embedded on the drone. Furthermore, we allow remote student-teacher communication using the drone, in case there is a teacher present in the remote lab facility. Finally, the drone has to go back home when the mission is over to land on a platform for automatic recharge of the batteries. Second, we propose an automatic system that estimates the affective state of the student (frustrated/confused/flow) in order to take appropriate interventions to ensure good learning outcomes. For example, if the studen is having major difficulties we can try to give him hints or to reduce the difficulty level of the lab experiment. We propose to do this by using visual cues (head pose estimation and facil expression analysis). Many evidences on the state of the student can be acquired, however these evidences are incomplete, sometims inaccurate, and do not cover all the aspects of the state of the student alone. This is why we propose to fuse evidences using the theory of Dempster-Shafer that allows the fusion of incomplete evidence.

Ver más...

Implicación de usuarios en proyectos de investigación tecnológica (ImUPITec): análisis de procedimientos éticos, metodologías y herramientas y propuesta de mejora orientada a personas mayores

GARZO MANZANARES,AINARA

Dirección:
GARAY VITORIA, NESTOR
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

Hoy en día es habitual implicar a los usuarios finales en los proyectos tecnológicos de investigación con la finalidad de mejorar la usabilidad, aceptación y utilidad de los sistemas o dispositivos a desarrollar. Existen numerosas técnicas y metodologías para la participación e implicación de usuarios y stakeholders, pero la selección de las más adecuadas no siempre es sencilla. Es muy importante identificar estas herramientas para trabajar con los usuarios objetivo, así como las dificultades que nos podemos encontrar con cada una de ellas. En este proyecto de tesis se parte de la hipótesis de que algunas herramientas no son adecuadas para ser utilizadas con personas mayores sin antes haber realizado ciertas adaptaciones. Por ello, en este trabajo se presenta un análisis de las diferentes metodologías de implicación de usuarios o stakeholders para la mejora del diseño y la usabilidad de desarrollos tecnológicos, así como una nueva metodología y clasificación de las herramientas asociadas a dicha metodología. A partir de esta propuesta se ha analizado el uso de algunas de las herramientas con la población mayor para realizar una serie de propuestas de mejora cuando se utilizan con dichas personas. Asimismo, se ha generado un repositorio web donde consultar las características de las herramientas. Adicionalmente, en este proyecto se discuten los aspectos éticos y legales que se deben tener en cuenta a la hora de implicar seres humanos en una investigación, y por tanto las dificultades que se encuentran los investigadores, específicamente en la rama tecnológica, a la hora de interpretar la documentación relacionada con esta temática. Para ello, se ha analizado la documentación acerca de los aspectos éticos y legales que aplican y se han desarrollado diferentes mecanismos que ayuden a los investigadores a interpretar las directivas, regulaciones, recomendaciones, buenas prácticas y legislación aplicable en cada caso. Por un lado, se han desarrollado una serie de plantillas para facilitar la tarea de completar el diseño metodológico que implica a seres humanos en la investigación, incluyendo el proceso de consentimiento informado. Por otro lado, se ha propuesto un diagrama de flujo de ayuda a la toma de decisiones a realizar. Por último, se ha creado una herramienta que da soporte a dicho diagrama. La herramienta desarrollada ha sido evaluada para mejorar su usabilidad y estos materiales se han puesto a disposición de los investigadores para que puedan ser utilizados en el día a día con proyectos reales. El trabajo realizado plantea una serie de líneas futuras de investigación que también se esbozan en esta memoria.

Ver más...

Theoretical and methodological advances in semi-supervised learning and the class-imbalance problem.

ORTIGOSA HERNANDEZ, JONATHAN

Dirección:
INZA CANO, IÑAKI;
LOZANO ALONSO, JOSE ANTONIO
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

Este trabajo se centra en la generalización teórica y práctica de dos situaciones desafiantes y conocidas del campo del aprendizaje automático a problemas de clasificación en los cuales la suposición de tener una única clase binaria no se cumple. Aprendizaje semi-supervisado es una técnica que usa grandes cantidades de datos no etiquetados para, así, mejorar el rendimiento del aprendizaje supervisado cuando el conjunto de datos etiquetados es muy acotado. Concretamente, este trabajo contribuye con metodologías potentes y computacionalmente eficientes para aprender, de forma semi-supervisada, clasificadores para múltiples variables clase. También, se investigan, de forma teórica, los límites fundamentales del aprendizaje semi-supervisado en problemas multiclase. El problema de desbalanceo de clases aparece cuando las variables objetivo presentan una distribución de probabilidad lo suficientemente desbalanceada como para desvirtuar las soluciones propuestas por los algoritmos de aprendizaje supervisado tradicionales. En este proyecto, se propone un marco teórico para separar la desvirtuación producida por el desbalanceo de clases de otros factores que afectan a la precisión de los clasificadores. Este marco es usado principalmente para realizar una recomendación de métricas de evaluación de clasificadores en esta situación. Por último, también se propone una medida del grado de desbalanceo de clases en un conjunto de datos correlacionada con la pérdida de precisión ocasionada.

Ver más...

Framework para el desarrollo y entrenamiento de sistemas de indeferencia difusa siguiendo métodos de desarrollo dirigido por modelos

SEGUNDO SANTAMARIA, UNAI

Dirección:
PEREZ FERNANDEZ, TOMAS ANTONIO;
PIKATZA ATXA, JUAN MANUEL
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2017
Resumen:

Este trabajo de tesis doctoral presenta un modelo independiente de la computación de un Diagnóstico Diferencial (DD), así como un modelo independiente de la plataforma de un Sistema de Inferencia Difusa. Se han utilizado los Métodos de Desarrollo Dirigido por Modelos (MDDM) en la concepción de los modelos, los cuales, además de facilitar la definición de los modelos, ofrecen herramientas para la realización de transformaciones entre ellos. Así, en el presente trabajo también se exponen las transformaciones entre los modelos de DD y SID y las transformaciones para la generación automática de SID expresados en lenguajes concretos a partir de los modelos de SID independientes de la plataforma. Los SID dependientes de la plataforma pueden ser incluidos en el formalismo de representación de Guías Clínicas Informatizadas (GCI) Aide. Así mismo, en la tesis también se incluye una descripción de las herramientas que facilitan la definición de modelos de DD y SID, así como la generación automática de SID en lenguajes concretos utilizables en distintos motores de razonamiento. Es de reseñar la adición de un módulo de aprendizaje automático mediante un Algoritmo Genético que permite adaptar algunas características de los modelos de SID a los datos reales de entrenamiento. Las herramientas y modelos se han validado en dos ámbitos. Por un lado, se han utilizado en el cribado neonatal, una prueba diagnóstica dirigida a la identificación presintomática de enfermedades graves con el fin de tratarlas precozmente y así prevenir y minimizar minusvalías neurológicas, orgánicas y psíquicas. Por otro lado, se han utilizado en el diagnóstico de la hiperamonemia, una Enfermedad Rara que se debe tratar de forma urgente para evitar graves secuelas neurológicas e incluso la muerte. En ambos casos, los SID creados se han integrado en unas GCI para ser evaluados.

Ver más...

Speech technologies for the audiovisual and multimedia interaction environments

ALVAREZ MUNIAIN, AITOR

Dirección:
ARRUTI ILLARRAMENDI, ANTONIO;
POZO ECHEZARRETA,MARIA ARANZAZU, DEL
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2016
Resumen:

En esta memoria de tesis, se analiza el estado actual de algunas tecnologías de análisis del audio y procesamiento del habla aplicadas a sectores como el audiovisual y el de interacción persona-maquina, y se describen tanto su aportación a las mismas como las nuevas contribuciones realizadas al estado del arte. Finalmente, se describen soluciones tecnológicas desarrolladas y su transferencia a diferentes entidades para su uso en la Industria.

Ver más...

Aplicación de modelos matemáticos para el mantenimiento predictivo.

JIMENEZ CORTADI, ALBERTO

Dirección:
BOTO SANCHEZ,FERNANDO;
IRIGOYEN GARBIZU, ITZIAR
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

La presente memoria de tesis presenta una revisión sobre la actividad de investigación aplicada que se ha realizado mediante varios proyectos relacionados con el mantenimiento predictivo asociado a procesos industriales. Uno de los resultados principales es la realización de una herramienta web que permite al operador consultar el tiempo estimado hasta el fallo en un proceso de mecanizado y junto a ello un histórico de datos del sistema. Se han obtenido otros resultados que generan una evolución en el mantenimiento de los sistemas estudiados, lo que reduce el coste y aumenta la productividad de estos. Para ello se han aplicado metodologías híbridas donde el objetivo principal radicaba en la creación de una metodología de mantenimiento predictivo para cada uno de los procesos y en algún caso la posibilidad de generalización de esta a procesos similares.

Ver más...

Computational intelligence contributions to readmisision risk prediction in Healthcare systems

ARTETXE BALLEJO, ARKAITZ

Dirección:
BERISTAIN IRAOLA, ANDONI;
GRAÑA ROMAY, MANUEL MARIA
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2017
Resumen:

The Thesis tackles the problem of readmission risk prediction in healthcare systems from a machine learning and computational intelligence point of view. Readmission has been recognized as an indicator of healthcare quality with primary economic importance. We examine two specific instances of the problem, the emergency department (ED) admission and heart failure (HF) patient care using anonymized datasets from three institutions to carry real-life computational experiments validating the proposed approaches. The main difficulties posed by this kind of datasets is their high class imbalance ratio, and the lack of informative value of the recorded variables. This thesis reports the results of innovative class balancing approaches and new classification architectures.

Ver más...

High performance scientific computing in applications with direct finite element simulation

KRISHNASAMY , EZHILMATHI

Dirección:
JANSSON , JOHAN OLOF
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

La predicción del flujo separado, incluida la pérdida de un avión completo mediante la dinámica de fluidos computacional (CFD) se considera uno de los grandes desaf¿¿os que se resolverán en 2030, según NASA. Las ecuaciones no lineales de Navier-Stokes proporcionan la formulación matemática para flujo de fluidos en espacios tridimensionales. Sin embargo, todavia faltan soluciones clásicas, existencia y singularidad. Ya que el cálculo de la fuerza bruta es intratable para realizar simulación predictiva para un avión completo, uno puede usar la simulación numérica directa (DNS); sin embargo, prohibitivamente caro ya que necesita resolver la turbulencia a escala de magnitud Re power (9/4). Considerando otros métodos como el estad¿¿stico promedio Reynolds¿s Average Navier Stokes (RANS), spatial average Large Eddy Simulation (LES), y Hybrid Detached Eddy Simulation (DES), que requieren menos cantidad de grados de libertad. Todos estos métodos deben ajustarse a los problemas de referencia y, además, cerca las paredes, la malla tiene que ser muy fina para resolver las capas l¿¿mite (lo cual significa que el costo computacional es muy costoso). Por encima de todo, los resultados son sensibles a, por ejemplo, parámetros expl¿¿citos en el método, la malla, etc. Como una solución al desaf¿¿o, aqu¿¿ presentamos la adaptación Metodolog¿¿a de solución directa de FEM (DFS) con resolución numérica disparo, como una familia predictiva, libre de parámetros de métodos para flujo turbulento. Resolvimos el modelo de avión JAXA Standard Model (JSM) en número realista de Reynolds, presentado como parte del High Lift Taller de predicción 3. Predijimos un aumento de Cl dentro de un error de 5 % vs experimento, arrastre Cd dentro de 10 % error y detenga 1 ¿ dentro del ángulo de ataque.El taller identificó un probable experimento error de pedido 10 % para los resultados de arrastre. La simulación es 10 veces más rápido y más barato en comparación con CFD tradicional o existente enfoques. La eficiencia proviene principalmente del l¿¿mite de deslizamiento condición que permite mallas gruesas cerca de las paredes, orientada a objetivos control de error adaptativo que refina la malla solo donde es necesario y grandes pasos de tiempo utilizando un método de iteración de punto fijo tipo Schur, sin comprometer la precisión de los resultados de la simulación. También presentamos una generalización de DFS a densidad variable y validado contra el problema de referencia MARIN bien establecido. los Los resultados muestran un buen acuerdo con los resultados experimentales en forma de sensores de presión. Más tarde, usamos esta metodolog¿¿a para resolver dos aplicaciones en problemas de flujo multifásico. Uno tiene que ver con un flash tanque de almacenamiento de agua de lluvia (consorcio de agua de Bilbao), y el segundo es sobre el diseño de una boquilla para impresión 3D. En el agua de lluvia tanque de almacenamiento, predijimos que la altura del agua en el tanque tiene un influencia significativa sobre cómo se comporta el flujo aguas abajo de la puerta del tanque (válvula). Para la impresión 3D, desarrollamos un diseño eficiente con El flujo de chorro enfocado para evitar la oxidación y el calentamiento en la punta del boquilla durante un proceso de fusión. Finalmente, presentamos aqu¿¿ el paralelismo en múltiples GPU y el incrustado sistema de arquitectura Kalray. Casi todas las supercomputadoras de hoy tienen arquitecturas heterogéneas, 1 See the UNESCO Internacional Standard nomenclature for fields of Science and Technologya como CPU+GPU u otros aceleradores, y, por lo tanto, es esencial desarrollar marcos computacionales para aprovecha de ellos. Como lo hemos visto antes, se comienza a desarrollar ese CFD más tarde en la década de 1060 cuando podemos tener poder computacional, por lo tanto, Es esencial utilizar y probar estos aceleradores para los cálculos de CFD. Las GPU tienen una arquitectura diferente en comparación con las CPU tradicionales. Técnicamente, la GPU tiene muchos núcleos en comparación con las CPU que hacen de la GPU una buena opción para el cómputo paralelo. Para múltiples GPU, desarrollamos un cálculo de plantilla, aplicado a simulación de pliegues geológicos. Exploramos la computación de halo y utilizamos Secuencias CUDA para optimizar el tiempo de computación y comunicación. La ganancia de rendimiento resultante fue de 23 % para cuatro GPU con arquitectura Fermi, y la mejora correspondiente obtenida en cuatro Las GPU Kepler fueron de 47 %.

Ver más...

Mobility mining for time-dependent urban network modeling

ARREGUI MARTIARENA,HARBIL

Dirección:
ARBELAIZ GALLEGO, OLATZ;
OTAEGUI MADURGA, OIHANA
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

Mobility planning, monitoring and analysis in such a complex ecosystem as a city are very challenging. Our contributions are expected to be a small step forward towards a more integrated vision of mobility management. The main hypothesis behind this thesis is that the transportation offer and the mobility demand are greatly coupled, and thus, both need to be thoroughly and consistently represented in a digital manner so as to enable good quality data-driven advanced analysis. Data-driven analytics solutions rely on measurements. However, sensors do only provide a measure of movements that have already occurred (and associated magnitudes, such as vehicles per hour). For a movement to happen there are two main requirements: i) the demand (the need or interest) and ii) the offer (the feasibility and resources). In addition, for good measurement, the sensor needs to be located at an adequate location and be able to collect data at the right moment. All this information needs to be digitalised accordingly in order to apply advanced data analytic methods and take advantage of good digital transportation resource representation. Our main contributions, focused on mobility data mining over urban transportation networks, can be summarised in three groups. The first group consists of a comprehensive description of a digital multimodal transport infrastructure representation from global and local perspectives. The second group is oriented towards matching diverse sensor data onto the transportation network representation, including a quantitative analysis of map-matching algorithms. The final group of contributions covers the prediction of short-term demand based on various measures of urban mobility.

Ver más...

Optimisation of the user experience across-multi-screen media services.

DOMINGUEZ FANLO ANA

Dirección:
FLOREZ ESNAL, JULIAN;
LAFUENTE ROJO, JULIAN ALBERTO;
ZORRILLA BERASATEGUI, MIKEL JOSEBA
Menciones:
Cum Laude
Tésis Industrial
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

La evolución de los dispositivos conectados a Internet, ha provocado la transformación del sector audiovisual en un ecosistema híbrido en el que el contenido se distribuye a través de múltiples dispositivos. Este nuevo contexto trae experiencias muy flexibles donde el contenido no solo tiene que ser adaptado a cualquier dispositivo, sino que también requiere una adaptación a entornos multi-dispositivo en los que uno o múltiples usuarios utilizan varios dispositivos de manera simultánea. De este modo, la interfaz de usuario se convierte en un factor clave para facilitar la comprensión de la aplicación y proveer una interacción intuitiva a través de las múltiples pantallas. Sin embargo, no existen modelos de adaptación para adaptar tal cantidad de contenido a contextos multi-dispositivo y multi-usuario de una manera dinámica y continua. Para abordar esta necesidad, esta investigación propone una metodología que provee como resultado un modelo de adaptación, implementado y validado, para la interfaz de usuario de servicios multimedia multi-dispositivo, suficientemente general como para adaptarlo facilmente a diferentes casos y escenarios y preparado para cualquier actualización tecnológica.

Ver más...

Diagnóstico de fallos y optimización de la planificación en un marco de e-mantenimiento.

GILABERT GARCIA PELAYO, EDUARDO

Dirección:
ARNAIZ IRIGARAY,SATUR AITOR;
SIERRA ARAUJO, BASILIO
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

El objetivo principal es demostrar el potencial de mejora que las técnicas y metodologías relacionadas con la analítica prescriptiva, pueden proporcionar en aplicaciones de mantenimiento industrial. Las tecnologías desarrolladas se pueden agrupar en tres ámbitos: - El e-mantenimiento, relacionado fundamentalmente con el desarrollo de plataformas colaborativas e inteligentes que permiten la integración de nuevos sensores, sistemas de comunicaciones, estándares y protocolos, conceptos, métodos de almacenamiento y análisis etc. que entran continuamente en nuestro abanico de posibilidades y nos ofrecen la posibilidad de seguir una tendencia de mejora en la optimización de activos y procesos, y en la interoperabilidad entre sistemas. - Las Redes Bayesianas (Bayesian Networks ¿ BNs) junto con otras metodologías de recogida de información utilizadas en ingeniería nos ofrecen la posibilidad de automatizar la tarea de diagnóstico y predicción de fallos. - La optimización de las estrategias de mantenimiento, mediante simulaciones de fallos y análisis coste-efectividad, que ayudan a la toma de decisiones a la hora de seleccionar una estrategia de mantenimiento adecuada para el activo. Además, mediante el uso de algoritmos de optimización logramos mejorar la planificación del mantenimiento, reduciendo los tiempos y costes para realizar las tareas en un parque de activos.

Ver más...

Contributions to neuronal architecture search in generative and multitask modeling

GARCIARENA HUALDE, UNAI

Dirección:
LOZANO ALONSO, JOSE ANTONIO;
MENDIBURU ALBERRO, ALEXANDER;
SANTANA HERMIDA, ROBERTO
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

Esta tesis se enmarca dentro del ámbito de la inteligencia artificial, más concretamente, en el del aprendizaje automático (AA). Dentro del extenso conjunto de técnicas y algoritmos que conforman el área del AA, el trabajo ha sido enfocado en los modelos denominados redes neuronales profundas (RNP). En la última década, los resultados que han obtenido estos modelos han poblado el estado del arte para varios problemas, entre los cuales destacan los relacionados con el tratamiento de imágenes. El origen de esta repentina aparición de los modelos neuronales entre los más potentes en distintos paradigmas del aprendizaje automático se debe, en gran parte, a la especialización de la estructura neuronal que los define. Un claro ejemplo de este efecto es la aplicación de operaciones convolucionales si el problema está relacionado con imágenes. Tradicionalmente, el diseño de estas estructuras se ha llevado a cabo de forma manual, por expertos tanto en el problema como en los modelos neuronales. En los últimos años, la especialización de las RNP ha venido a costa de altos crecimientos en las complejidades de los modelos, especialmente en redes dedicadas a tratar problemas de procesado de lenguaje natural. En este contexto, el desarrollo automático de estructuras neuronales ha sido propuesta como una alternativa a el malgasto de tiempo de los expertos. Además, el avance conseguido en los componentes físicos que se encargan de procesar estos modelos ha resultado en un aumento del interés en estas técnicas. A pesar de esto, el aumento en la complejidad de los modelos (llegando a 175 mil millones de parámetros en casos extremos), ha hecho que la eficiencia computacional de estas técnicas sea un aspecto a tener en cuenta. En esta tesis, se recogen diferentes técnicas y métodos para analizar procesos de búsqueda estructural pasados con el fin de mejorar futuras búsquedas de características similares.

Ver más...

Interconnected Services for Time-Series Data Management in Smart Manufacturing Scenarios

VILLALOBOS RODRIGUEZ, KEVIN

Dirección:
BLANCO ARBE, JOSE MIGUEL;
ILLARRAMENDI ECHAVE, MARIA ARANZAZU
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

The rise of Smart Manufacturing, together with the strategic initiatives carried out worldwide, have promoted its adoption among manufacturers who are increasingly interested in boosting data-driven applications for different purposes, such as product quality control, predictive maintenance of equipment, etc. However, the adoption of these approaches faces diverse technological challenges with regard to the data-related technologies supporting the manufacturing data life-cycle. The main contributions of this dissertation focus on two specific challenges related to the early stages of the manufacturing data life-cycle: an optimized storage of the massive amounts of data captured during the production processes and an efficient pre-processing of them. The first contribution consists in the design and development of a system that facilitates the pre-processing task of the captured time-series data through an automatized approach that helps in the selection of the most adequate pre-processing techniques to apply to each data type. The second contribution is the design and development of a three-level hierarchical architecture for time-series data storage on cloud environments that helps to manage and reduce the required data storage resources (and consequently its associated costs). Moreover, with regard to the later stages, a third contribution is proposed, that leverages advanced data analytics to build an alarm prediction system that allows to conduct a predictive maintenance of equipment by anticipating the activation of different types of alarms that can be produced on a real Smart Manufacturing scenario.

Ver más...

Méthodes de sélection de variables pour l,anlyse de données provenant de sources différentes et présentant une structure de groupe de variables.

BROC , CAMILO LUCIEN

Dirección:
CALVO MOLINOS, BORJA
Menciones:
Tésis Internacional
Tésis en Cotutela
Calificación:
Notable
Año:
2019
Resumen:

During the last decades, the amount of available genetic data on populations has grown drastically. From one side, a refinement of chemical technologies have made possible the extraction of the human genome of individuals at an accessible cost. From the other side, consortia of institutions and laboratories around the world have permitted the collection of data on a variety of individuals and population. This amount of data raised hope on our ability to understand the deepest mechanisms involved in the functioning of our cells. Notably, genetic epidemiology is a field that studies the relation between the genetic features and the onset of a disease. Specific statistical methods have been necessary for those analyses, especially due to the dimensions of available data: in genetics, information is contained in a high number of variables compared to the number of observations. In this dissertation, two contributions are presented. The first project called PIGE (Pathway Interaction Gene Environment) deals with gene-environment interaction assessments. The second one aims at developing variable selection methods for data which has group structures in both the variables and the observations.

Ver más...

Application of machine learning techniques to weather forecasting

ROZAS LARRAONDO, PABLO

Dirección:
INZA CANO, IÑAKI;
LOZANO ALONSO, JOSE ANTONIO
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

El pronóstico del tiempo es, incluso hoy en día, una actividad realizada principalmente por humanos. Si bien las simulaciones por computadora desempeñan un papel importante en el modelado del estado y la evolución de la atmósfera, faltan metodologías para automatizar la interpretación de la información generada por estos modelos. Esta tesis doctoral explora el uso de metodologías de aprendizaje automático para resolver problemas específicos en meteorología y haciendo especial énfasis en la exploración de metodologías para mejorar la precisión de los modelos numéricos de predicción del tiempo. El trabajo presentado en este manuscrito comprende dos enfoques diferentes a la aplicación de algoritmos de aprendizaje automático a problemas de predicción meteorológica. En la primera parte, las metodologías clásicas, como la regresión multivariada no paramétrica y los árboles binarios, se utilizan para realizar regresiones en datos meteorológicos. Esta primera parte, está centrada particularmente en el pronóstico del viento, cuya naturaleza circular crea desafíos interesantes para los algoritmos clásicos de aprendizaje automático. La segunda parte de esta tesis explora el análisis de los datos meteorológicos como un problema de predicción estructurado genérico utilizando redes neuronales profundas. Las redes neuronales, como las redes convolucionales y recurrentes, proporcionan un método para capturar la estructura espacial y temporal inherente en los modelos de predicción del tiempo. Esta parte explora el potencial de las redes neuronales convolucionales profundas para resolver problemas difíciles en meteorología, como el modelado de la precipitación a partir de campos de modelos numéricos básicos. La investigación que sustenta esta tesis sirve como un ejemplo de cómo la colaboración entre las comunidades de aprendizaje automático y meteorología puede resultar mutuamente beneficiosa y conducir a avances en ambas disciplinas. Los modelos de pronóstico del tiempo y los datos de observación representan ejemplos únicos de conjuntos de datos grandes (petabytes), estructurados y de alta calidad, que la comunidad de aprendizaje automático exige para desarrollar la próxima generación de algoritmos escalables.

Ver más...

Contributions to automatic learning of kernel functions

ROMAN TXOPITEA, IBAI

Dirección:
MENDIBURU ALBERRO, ALEXANDER;
SANTANA HERMIDA, ROBERTO
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

Muchos algoritmos de aprendizaje automático se basan en funciones de kernel para resolver las tareas propuestas. Entre estos algoritmos podemos encontrar métodos de kernel, como las Máquinas de vectores de soporte (SVMs), o métodos de inferencia bayesianos, como los Procesos de Gauss (GPs). Sin embargo, la validez de estos algoritmos para resolver problemas depende en gran medida de la función del kernel, y no hay ninguna función del kernel que sea óptima para todos los dominios de aplicación. La elección del kernel requiere conocimiento del algoritmo y del dominio de aplicación y hay un gran interés en automatizar este proceso. En esta tesis estudiamos el uso de la programación genética para aprender kernels tanto para SVMs como para GPs. En primer lugar, describimos el análisis realizado en el campo de las SVM, donde hemos estudiado las diferentes interacciones entre los componentes de las SVM durante la evolución de los kernels, y proporcionamos algunas pautas para mejorar el proceso de aprendizaje del kernel. A continuación, proponemos un método basado en expresiones matemáticas básicas para aprender kernels para GPs a través de la programación genética, y probamos la validez de este método en varias aplicaciones, como la predicción de series temporales o tareas de procesamiento de lenguaje natural.

Ver más...

Application-driven visual computing towards industry 4.0

DIEZ MCCREADY, HELEN VICTORIA

Dirección:
GARCIA ALONSO MONTOYA, ALEJANDRO;
POSADA VELAZQUEZ JORGE LEON
Calificación:
Sobresaliente
Año:
2018
Resumen:

La Tesis recoge contribuciones en tres campos: ¿ Agentes Virtuales Interactivos: autónomos, modulares, escalables, ubicuos y atractivos para el usuario. Estos IVA pueden interactuar con los usuarios de manera natural. ¿ Entornos de RV/RA Inmersivos: RV en la planificación de la producción, el diseño de producto, la simulación de procesos, pruebas y verificación. El Operario Virtual muestra cómo la RV y los Co-bots pueden trabajar en un entorno seguro. En el Operario Aumentado la RA muestra información relevante al trabajador de una manera no intrusiva. ¿ Gestión Interactiva de Modelos 3D: gestión online y visualización de modelos CAD multimedia, mediante conversión automática de modelos CAD a la Web. La tecnología Web3D permite la visualización e interacción de estos modelos en dispositivos móviles de baja potencia. Además, estas contribuciones han permitido analizar los desafíos presentados por Industry 4.0. La tesis ha contribuido a proporcionar una prueba de concepto para algunos de esos desafíos: en factores humanos, simulación, visualización e integración de modelos.

Ver más...

Supporting the grow-and-prune model for evolving software product lines

MONTALVILLO MENDIZABAL, LETICIA

Dirección:
DIAZ GARCIA, OSCAR
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

Software Product Lines (SPLs) aim at supporting the development of a whole family of software products through a systematic reuse of shared assets. To this end, SPL development is separated into two interrelated processes: (1) domain engineering (DE), where the scope and variability of the system is defined and reusable core-assets are developed; and (2) application engineering (AE), where products are derived by selecting core assets and resolving variability. Evolution in SPLs is considered to be more challenging than in traditional systems, as both core-assets and products need to co-evolve. The so-called grow-and-prune model has proven great flexibility to incrementally evolve an SPL by letting the products grow, and later prune the product functionalities deemed useful by refactoring and merging them back to the reusable SPL core-asset base. This Thesis aims at supporting the grow-and-prune model as for initiating and enacting the pruning. Initiating the pruning requires SPL engineers to conduct customization analysis, i.e. analyzing how products have changed the core-assets. Customization analysis aims at identifying interesting product customizations to be ported to the core-asset base. However, existing tools do not fulfill engineers needs to conduct this practice. To address this issue, this Thesis elaborates on the SPL engineers' needs when conducting customization analysis, and proposes a data-warehouse approach to help SPL engineers on the analysis. Once the interesting customizations have been identified, the pruning needs to be enacted. This means that product code needs to be ported to the core-asset realm, while products are upgraded with newer functionalities and bug-fixes available in newer core-asset releases. Herein, synchronizing both parties through sync paths is required. However, the state of-the-art tools are not tailored to SPL sync paths, and this hinders synchronizing core-assets and products. To address this issue, this Thesis proposes to leverage existing Version Control Systems (i.e. git/Github) to provide sync operations as first-class constructs.

Ver más...

Towards a framework for socially interactive robots

RODRIGUEZ RODRIGUEZ, IGOR

Dirección:
LAZKANO ORTEGA, ELENA;
RUIZ VAZQUEZ, MARIA CONSUELO
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

En las últimas décadas, la investigación en el campo de la robótica social ha crecido considerablemente. El desarrollo de diferentes tipos de robots y sus roles dentro de la sociedad se están expandiendo poco a poco. Los robots dotados de habilidades sociales pretenden ser utilizados para diferentes aplicaciones; por ejemplo, como profesores interactivos y asistentes educativos, para apoyar el manejo de la diabetes en niños, para ayudar a personas mayores con necesidades especiales, como actores interactivos en el teatro o incluso como asistentes en hoteles y centros comerciales. El equipo de investigación RSAIT ha estado trabajando en varias áreas de la robótica, en particular, en arquitecturas de control, exploración y navegación de robots, aprendizaje automático y visión por computador. El trabajo presentado en este trabajo de investigación tiene como objetivo añadir una nueva capa al desarrollo anterior, la capa de interacción humano-robot que se centra en las capacidades sociales que un robot debe mostrar al interactuar con personas, como expresar y percibir emociones, mostrar un alto nivel de diálogo, aprender modelos de otros agentes, establecer y mantener relaciones sociales, usar medios naturales de comunicación (mirada, gestos, etc.), mostrar personalidad y carácter distintivos y aprender competencias sociales. En esta tesis doctoral, tratamos de aportar nuestro grano de arena a las preguntas básicas que surgen cuando pensamos en robots sociales: (1) ¿Cómo nos comunicamos (u operamos) los humanos con los robots sociales?; y (2) ¿Cómo actúan los robots sociales con nosotros? En esa línea, el trabajo se ha desarrollado en dos fases: en la primera, nos hemos centrado en explorar desde un punto de vista práctico varias formas que los humanos utilizan para comunicarse con los robots de una manera natural. En la segunda además, hemos investigado cómo los robots sociales deben actuar con el usuario. Con respecto a la primera fase, hemos desarrollado tres interfaces de usuario naturales que pretenden hacer que la interacción con los robots sociales sea más natural. Para probar tales interfaces se han desarrollado dos aplicaciones de diferente uso: robots guía y un sistema de control de robot humanoides con fines de entretenimiento. Trabajar en esas aplicaciones nos ha permitido dotar a nuestros robots con algunas habilidades básicas, como la navegación, la comunicación entre robots y el reconocimiento de voz y las capacidades de comprensión. Por otro lado, en la segunda fase nos hemos centrado en la identificación y el desarrollo de los módulos básicos de comportamiento que este tipo de robots necesitan para ser socialmente creíbles y confiables mientras actúan como agentes sociales. Se ha desarrollado una arquitectura (framework) para robots socialmente interactivos que permite a los robots expresar diferentes tipos de emociones y mostrar un lenguaje corporal natural similar al humano según la tarea a realizar y las condiciones ambientales. La validación de los diferentes estados de desarrollo de nuestros robots sociales se ha realizado mediante representaciones públicas. La exposición de nuestros robots al público en esas actuaciones se ha convertido en una herramienta esencial para medir cualitativamente la aceptación social de los prototipos que estamos desarrollando. De la misma manera que los robots necesitan un cuerpo físico para interactuar con el entorno y convertirse en inteligentes, los robots sociales necesitan participar socialmente en tareas reales para las que han sido desarrollados, para así poder mejorar su sociabilidad.

Ver más...

Traductor de consultas SPARQL, formuladas sobre fuentes de datos incompletamente alineadas, que aporta una estimación de la calidad de la traducción.

TORRE BASTIDA,ANA ISABEL

Dirección:
BERMUDEZ DE ANDRES, JESUS;
ILLARRAMENDI ECHAVE, MARIA ARANZAZU
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

EXTRACTO/RESUMEN Hoy en día existe en la Web un número cada vez mayor de conjuntos de datos enlazados de distinta procedencia, referentes a diferentes dominios y que se encuentran accesibles al público en general para ser libremente explotados. Esta tesis doctoral centra su estudio en el ámbito del procesamiento de consultas sobre dicha nube de conjuntos de datos enlazados, abordando las dificultades en su acceso por aspectos relacionados con su heterogeneidad. La principal contribución reside en el planteamiento de una nueva propuesta que permite traducir la consulta realizada sobre un conjunto de datos enlazado a otro sin que estos se encuentren completamente alineados y sin que el usuario tenga que conocer las características técnicas inherentes a cada fuente de datos. Esta propuesta se materializa en un traductor que transforma una consulta SPARQL, adecuadamente expresada en términos de los vocabularios utilizados en un conjunto de datos de origen, en otra consulta SPARQL adecuadamente expresada para un conjunto de datos objetivo que involucra diferentes vocabularios. La traducción se basa en alineaciones existentes entre términos en diferentes conjuntos de datos. Cuando el traductor no puede producir una consulta semánticamente equivalente debido a la escasez de alineaciones de términos, el sistema produce una aproximación semántica de la consulta para evitar devolver una respuesta vacía al usuario. La traducción a través de los distintos conjuntos de datos se logra gracias a la aplicación de un variado grupo de reglas de transformación. En esta tesis se han definido cinco tipos de reglas, dependiendo de la motivación de la transformación, que son: equivalencia, jerarquía, basadas en las respuestas de la consulta, basadas en el perfil de los recursos que aparecen en la consulta y basadas en las características asociadas a los recursos que aparecen en la consulta. Además, al no garantizar el traductor la preservación semántica debido a la heterogeneidad de los vocabularios se vuelve crucial el obtener una estimación de la calidad de la traducción producida. Por ello otra de las contribuciones relevantes de la tesis consiste en la definición del modo en que informar al usuario sobre la calidad de la consulta traducida, a través de dos indicadores: un factor de similaridad que se basa en el proceso de traducción en sí, y un indicador de calidad de los resultados, estimado gracias a un modelo predictivo. Finalmente, esta tesis aporta una demostración de la viabilidad estableciendo un marco de evaluación sobre el que se ha validado un prototipo del sistema.

Ver más...

Personalizing the web: A tool for empowering end-users to customize the web through browser-side modification

ALDALUR CEBERIO, IÑIGO

Dirección:
DIAZ GARCIA, OSCAR
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2017
Resumen:

Web applications Web applications delegate to the browser the final rendering of their pages. This permits browser-based transcoding (a.k.a. Web Augmentation) that can be ultimately singularized for each browser installation. This creates an opportunity for Web consumers to customize their Web experiences. This vision requires provisioning adequate tooling that makes Web Augmentation affordable to laymen. We consider this a special class of End-User Development, integrating Web Augmentation paradigms. The dominant paradigm in End-User Development is scripting languages through visual languages. This thesis advocates for a Google Chrome browser extension for Web Augmentation. This is carried out through WebMakeup, a visual DSL programming tool for end-users to customize their own websites. WebMakeup removes, moves and adds web nodes from different web pages in order to avoid tab switching, scrolling, the number of clicks and cutting and pasting. Moreover, Web Augmentation extensions has difficulties in finding web elements after a website updating. As a consequence, browser extensions give up working and users might stop using these extensions. This is why two different locators have been implemented with the aim of improving web locator robustness.

Ver más...

Contributions to comprehensible classification

IBARGUREN ARRIETA, IGOR

Dirección:
MUGUERZA RIVERO, JAVIER FRANCISCO;
PEREZ DE LA FUENTE, JESUS MARIA
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

La tesis doctoral descrita en esta memoria ha contribuido a la mejora de dos tipos de algoritmos de clasificación comprensibles: algoritmos de \'arboles de decisión consolidados y algoritmos de inducción de reglas tipo PART. En cuanto a las contribuciones a la consolidación de algoritmos de árboles de decisión, se ha propuesto una nueva estrategia de remuestreo que ajusta el número de submuestras para permitir cambiar la distribución de clases en las submuestras sin perder información. Utilizando esta estrategia, la versión consolidada de C4.5 (CTC) obtiene mejores resultados que un amplio conjunto de algoritmos comprensibles basados en algoritmos genéticos y clásicos. Tres nuevos algoritmos han sido consolidados: una variante de CHAID (CHAID*) y las versiones Probability Estimation Tree de C4.5 y CHAID* (C4.4 y CHAIC). Todos los algoritmos consolidados obtienen mejores resultados que sus algoritmos de \'arboles de decisión base, con tres algoritmos consolidados clasificándose entre los cuatro mejores en una comparativa. Finalmente, se ha analizado el efecto de la poda en algoritmos simples y consolidados de \'arboles de decisión, y se ha concluido que la estrategia de poda propuesta en esta tesis es la que obtiene mejores resultados. En cuanto a las contribuciones a algoritmos tipo PART de inducción de reglas, una primera propuesta cambia varios aspectos de como PART genera \'arboles parciales y extrae reglas de estos, lo cual resulta en clasificadores con mejor capacidad de generalizar y menor complejidad estructural comparando con los generados por PART. Una segunda propuesta utiliza \'arboles completamente desarrollados, en vez de parcialmente desarrollados, y genera conjuntos de reglas que obtienen aún mejores resultados de clasificación y una complejidad estructural menor. Estas dos nuevas propuestas y el algoritmo PART original han sido complementadas con variantes basadas en CHAID* para observar si estos beneficios pueden ser trasladados a otros algoritmos de \'arboles de decisión y se ha observado, de hecho, que los algoritmos tipo PART basados en CHAID* también crean clasificadores más simples y con mejor capacidad de clasificar que CHAID*.

Ver más...

A context -and template- based data compression approach to improve resource-constrained IoT systems interoperability.

BERZOSA MACHO, JORGE

Dirección:
CORTIÑAS RODRIGUEZ, ROBERTO;
GARDEAZABAL MONTON, PEDRO JOSE LUIS
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

El objetivo del Internet de las Cosas (the Internet of Things, IoT) es el de interconectar todo tipo de cosas, desde dispositivos simples, como una bombilla o un termostato, a elementos más complejos y abstractos como una máquina o una casa. Estos dispositivos o elementos varían enormemente entre sí, especialmente en las capacidades que poseen y el tipo de tecnologías que utilizan. Esta heterogeneidad produce una gran complejidad en los procesos integración en lo que a la interoperabilidad se refiere. Un enfoque común para abordar la interoperabilidad a nivel de representación de datos en sistemas IoT es el de estructurar los datos siguiendo un modelo de datos estándar, así como formatos de datos basados en texto (e.g., XML). Sin embargo, el tipo de dispositivos que se utiliza normalmente en sistemas IoT tiene capacidades limitadas, así como recursos de procesamiento y de comunicación escasos. Debido a estas limitaciones no es posible integrar formatos de datos basados en texto de manera sencilla y e1ciente en dispositivos y redes con recursos restringidos. En esta Tesis, presentamos una novedosa solución de compresión de datos para formatos de datos basados en texto, que está especialmente diseñada teniendo en cuenta las limitaciones de dispositivos y redes con recursos restringidos. Denominamos a esta solución Context- and Template-based Compression (CTC). CTC mejora la interoperabilidad a nivel de los datos de los sistemas IoT a la vez que requiere muy pocos recursos en cuanto a ancho de banda de las comunicaciones, tamaño de memoria y potencia de procesamiento.

Ver más...

Assisted Interaction for Improving Web Accessibility: An Approach Driven and Tested by Users with Disabilities

PEREZ LOPEZ, JUAN EDUARDO

Dirección:
ABASCAL GONZALEZ, JULIO;
ARRUE RECONDO, MYRIAM
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

Un porcentaje cada vez mayor de la población mundial depende de la Web para trabajar, socializar, o para informarse entre otras muchas actividades. Los beneficios de la Web son todavía más cruciales para las personas con discapacidades ya que les permite realizar un sinfín de tareas que en el mundo físico les están restringidas debido distintas barreras de accesibilidad. A pesar de sus ventajas, la mayoría de páginas web suelen ignoran las necesidades especiales de las personas con discapacidad, e incluyen un diseño único para todos los usuarios. Existen diversos métodos para combatir este problema, como por ejemplo los sistemas de ¿transcoding¿, que transforman automáticamente páginas web inaccesibles en accesibles. Para mejorar la accesibilidad web a grupos específicos de personas, estos métodos requieren información sobre las técnicas de adaptación más adecuadas que deben aplicarse. En esta tesis se han realizado una serie de estudios sobre la idoneidad de diversas técnicas de adaptación para mejorar la navegación web para dos grupos diferentes de personas con discapacidad: personas con movilidad reducida en miembros superiores y personas con baja visión. Basado en revisiones bibliográficas y estudios observacionales, se han desarrollado diferentes adaptaciones de interfaces web y técnicas alternativas de interacción, que posteriormente han sido evaluadas a lo largo de varios estudios con usuarios con necesidades especiales. Mediante análisis cualitativos y cuantitativos del rendimiento y la satisfacción de los participantes, se han evaluado diversas adaptaciones de interfaz y métodos alternativos de interacción. Los resultados han demostrado que las técnicas probadas mejoran el acceso a la Web y que los beneficios varían según la tecnología asistiva usada para acceder al ordenador.

Ver más...

Linked data wrapper curation: A platform perspective

AZPEITIA LAKUNTZA, IKER AITOR

Dirección:
DIAZ GARCIA, OSCAR;
ITURRIOZ SANCHEZ, JUAN IGNACIO
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2017
Resumen:

Linked Data Wrappers (LDWs) turn Web APIs into RDF end-points, leveraging the LOD cloud with current data. This potential is frequently undervalued, regarding LDWs as mere by-products of larger endeavors, e.g. developing mashup applications. However, LDWs are mainly data-driven, not contaminated by application semantics, hence with an important potential for reuse. If LDWs could be decoupled from their breakout projects, this would increase the chances of LDWs becoming truly RDF end-points. But this vision is still under threat by LDW fragility upon API upgrades, and the risk of unmaintained LDWs. LDW curation might help. Similar to dataset curation, LDW curation aims to clean up datasets but, in this case, the dataset is implicitly described by the LDW definition, and ¿stains¿ are not limited to those related with the dataset quality but also include those related to the underlying API. This requires the existence of LDW Platforms that leverage existing code repositories with additional functionalities that cater for LDW definition, deployment and curation. This dissertation contributes to this vision through: (1) identifying a set of requirements for LDW Platforms; (2) instantiating these requirements in SYQL, a platform built upon Yahoo's YQL; (3) evaluating SYQL through a fully-developed proof of concept; and (4), validating the extent to which this approach facilitates LDW curation.

Ver más...

Paradigmas de aprendizaje automático aplicados a la teledetección: imágenes RGB e imágenes multiespectrales.

CALVARIO SANCHEZ, GABRIELA

Dirección:
ALARCON MARTINEZ, TERESA EFIGENIA;
SIERRA ARAUJO, BASILIO
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2019
Resumen:

La tendencia actual en el uso de sensores para recopilar datos georreferenciados con una alta redundancia, se basa en la aplicación de métodos robustos y automatizados para extraer información geoespacial. Los resultados derivan en un cambio de paradigmas en tecnologías geoespaciales, que hasta este momento no han generado un límite en su aplicación. Sumado a ello, los avances en tecnologías sobre ordenadores, aprendizaje máquina, detección de patrones y visión computacional muestran una clara tendencia a la generación de estudios avanzados sobre imágenes, lo cual impulsa a la investigación de la información geoespacial con un progreso exponencial. El presente trabajo realiza un recorrido sobre paradigmas de aprendizaje automático aplicados en imágenes aéreas (RGB) y satelitales (multiespectrales), metodologías que han sido aplicadas en campo con interesantes resultados.

Ver más...

Distributed eventual leader election in the crash-recovery and general omission failure models.

FERNANDEZ CAMPUSANO, CHRISTIAN ROBERT

Dirección:
CORTIÑAS RODRIGUEZ, ROBERTO;
LARREA ALAVA, MIKEL
Calificación:
Sobresaliente
Año:
2020
Resumen:

Distributed applications are present in many aspects of everyday life. Banking, healthcare or transportation are examples of such applications. These applications are built on top of distributed systems. Roughly speaking, a distributed system is composed of a set of processes that collaborate among them to achieve a common goal. When building such systems, designers have to cope with several issues, such as different synchrony assumptions and failure occurrence. Distributed systems must ensure that the delivered service is trustworthy. Agreement problems compose a fundamental class of problems in distributed systems. All agreement problems follow the same pattern: all processes must agree on some common decision. Most of the agreement problems can be considered as a particular instance of the Consensus problem. Hence, they can be solved by reduction to consensus. However, a fundamental impossibility result, namely (FLP), states that in an asynchronous distributed system it is impossible to achieve consensus deterministically when at least one process may fail. A way to circumvent this obstacle is by using unreliable failure detectors. A failure detector allows to encapsulate synchrony assumptions of the system, providing (possibly incorrect) information about process failures. A particular failure detector, called Omega, has been shown to be the weakest failure detector for solving consensus with a majority of correct processes. Informally, Omega lies on providing an eventual leader election mechanism.

Ver más...

Promoting End-User Involvement in Web-based tasks: a Model-Driven Engineering Approach to Form-filling and User-Acceptance Testing

OTADUY IGARTUA, ITZIAR

Dirección:
DIAZ GARCIA, OSCAR
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

Many applications which formerly were designed for the desktop have gradually made a transition to the Web. Accordingly, an increasing number of tasks can now be conducted through the Web. As a result, opportunities arise to achieve a higher level of automation that the one being previously possible with proprietary, OS-anchored desktop applications. This resulted in an emerging interest in empowering users to check, adapt and customize the way they navigate and make use of these applications. Web automation, Web augmentation, or Web mashups are performant approaches that pursuit this aim. This work explores the use of scripting for two tasks, namely, Web-form filling and Webapplication User-Acceptance Testing (UAT). In both cases, the challenge rests on abstracting from scripting code to higher models that permit the notion of scripting to be hidden into more-affordable representations. Accordingly, this work abstracts scripts into platformindependent models. For Web-form filling, we tackle the problem of repetitive form-filling from external sources. The solution is realized through WebFeeder, a plugin for iMacros that introduces autofilling-script models as first-class artifacts in iMacros. As for UAT, we tackle the issue of the need for the regular physical-presence of stakeholders for UAT in Agile methodologies. In this case, we resort to mind-maps as the model representation. These ideas are fleshed out in TestMind, an editor for FitNesse that permits to capture UAT sessions as test maps. Summing it up, the bottom line is that WebFeeder and TestMind showcase the benefits that Model-Driven Engineering can bring to Web Automation. By moving away from code to high-level models, Model-Driven Engineering reduces the entry barrier for the participation of end-users.

Ver más...

Visual computing techniques for automated LIDAR annotation with application to intelligent transport systems

BARANDIARAN MARTIRENA,JOSE JAVIER

Dirección:
GARCIA ALONSO MONTOYA, ALEJANDRO;
GRAÑA ROMAY, MANUEL MARIA;
OTAEGUI MADURGA, OIHANA
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

The concept of Intelligent Transport Systems (ITS) refers to the application of communication and information technologies to transport with the aim of making it more efficient, sustainable, and safer. Computer vision is increasingly being used for ITS applications, such as infrastructure management or advanced driver-assistance systems. The latest progress in computer vision, thanks to the Deep Learning techniques, and the race for autonomous vehicle, have created a growing requirement for annotated data in the automotive industry. The data to be annotated is composed by images captured by the cameras of the vehicles and LIDAR data in the form of point clouds. LIDAR sensors are used for tasks such as object detection and localization. The capacity of LIDAR sensors to identify objects at long distances and to provide estimations of their distance make them very appealing sensors for autonomous driving. This thesis presents a method to automate the annotation of lane markings with LIDAR data. The state of the art of lane markings detection based on LIDAR data is reviewed and a novel method is presented. The precision of the method is evaluated against manually annotated data. Its usefulness is also evaluated, measuring the reduction of the required time to annotate new data thanks to the automatically generated pre-annotations. Finally, the conclusions of this thesis and possible future research lines are presented.

Ver más...

Visión artificial aplicada a los sistemas de transporte inteligentes: aplicaciones prácticas

CORTES VIDAL,ANDONI

Dirección:
NIETO DONCEL, MARCOS;
RODRIGUEZ LAFUENTE, CLEMENTE
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

Esta tesis se focaliza en diferentes investigaciones y desarrollos llevados a cabo en el ámbito de los sistemas de transporte inteligente a diferentes niveles. Se han enfrentado problemas como la segmentación de vehículos, la detección y reconocimiento de elementos intrínsecamente relacionados con la infraestructura vial contemplando la posibilidad de extender esta detección a elementos ajenos a la infraestructura que pudieran generar situaciones de peligro si irrumpiesen de manera fortuita en las vías de transporte y se han realizado también, estudios teóricos sobre temas concretos que pueden actuar de guía para investigaciones realizadas en las líneas analizadas. En lo referente a los campos de aplicación, se proponen soluciones en diferentes áreas relacionadas con los sistemas de transporte inteligente. En concreto, soluciones para el peaje en sombra, donde se perseguían los objetivos de detección, clasificación y estimación de velocidad de los vehículos que transitaban una vía, soluciones para sistemas de asistencia avanzada a la conducción como el reconocimiento de señales de tráfico para ajustar la velocidad del vehículo e informar al conductor.

Ver más...

On the use of context information for an improved application of data-based algorithms in condition monitoring.

LOPEZ DE CALLE ETXABE, KERMAN

Dirección:
FERREIRO DEL RIO, SUSANA;
SIERRA ARAUJO, BASILIO
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

En el campo de la monitorización de la condición, los algoritmos basados en datos cuentan con un amplio recorrido. Desde el uso de los gráficos de control de calidad que se llevan empleando durante casi un siglo a técnicas de mayor complejidad como las redes neuronales o máquinas de soporte vectorial que se emplean para detección, diagnóstico y estimación de vida remanente de los equipos. Sin embargo, la puesta en producción de los algoritmos de monitorización requiere de un estudio exhaustivo de un factor que es a menudo obviado por otros trabajos de la literatura: el contexto. El contexto, que en este trabajo es considerado como el conjunto de factores que influencian la monitorización de un bien, tiene un gran impacto en la algoritmia de monitorización y su aplicación final. Por este motivo, es el objeto de estudio de esta tesis en la que se han analizado tres casos de uso. Se ha profundizado en sus respectivos contextos, tratando de generalizar a la problemática habitual en la monitorización de maquinaria industrial, y se ha abordado dicha problemática de monitorización de forma que solucionen el contexto en lugar de cada caso de uso. Así, el conocimiento adquirido durante el desarrollo de las soluciones puede ser transferido a otros casos de uso que cuenten con contextos similares.

Ver más...

Contribuciones al modelado semántico de las comunidades de práctica en línea.

AGUILERA VALENZUELA, FELIPE IGNACIO

Dirección:
GRAÑA ROMAY, MANUEL MARIA;
RIOS PEREZ, SEBASTIAN
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2018
Resumen:

Esta tesis está dirigida al estudio de un tipo especifico de redes sociales, las comunidades de practica, que se caracterizan por poseer un interés común que aglutina a los miembros. Consideramos la construcción de los grafos de relación de estas redes sociales en base a las comunicaciones que se realizan entre sus miembros mediante la publicación en los foros internos. Para mejorar la representación eliminando información espuria utilizamos herramientas de modelado semántico. La identificación de los miembros centrales en esta representación mejorada se ajusta mucho mejor a la realidad de la comunidad, usando como informacio ¿n de validación la identificación de miembros relevantes realizada por el administrador de la red. Utilizamos dos comunidades de práctica reales, de las que disponemos tanto de los datos como de la identificación de los miembros relevantes dada por los administradores de la red.

Ver más...

Contribution to supervised representation learning: algorithms and applications.

KHODER , AHMAD

Dirección:
DORNAIKA , FADI;
MOUJAHID MOUJAHID, ABDELMALIK
Menciones:
Cum Laude
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

In this thesis, we focus on supervised learning methods for pattern categorization. In this context, it remains a major challenge to establish efficient relationships between the discriminant properties of the extracted features and the inter-class sparsity structure. Our first attempt to address this problem was to develop a method called "Robust Discriminant Analysis with Feature Selection and Inter-class Sparsity" (RDA_FSIS). This method performs feature selection and extraction simultaneously. The targeted projection transformation focuses on the most discriminative original features while guaranteeing that the extracted (or transformed) features belonging to the same class share a common sparse structure, which contributes to small intra-class distances. In a further study on this approach, some improvements have been introduced in terms of the optimization criterion and the applied optimization process. In fact, we proposed an improved version of the original RDA_FSIS called "Enhanced Discriminant Analysis with Class Sparsity using Gradient Method" (EDA_CS). The basic improvement is twofold: on the first hand, in the alternating optimization, we update the linear transformation and tune it with the gradient descent method, resulting in a more efficient and less complex solution than the closed form adopted in RDA_FSIS. On the other hand, the method could be used as a fine-tuning technique for many feature extraction methods. The main feature of this approach lies in the fact that it is a gradient descent based refinement applied to a closed form solution. This makes it suitable for combining several extraction methods and can thus improve the performance of the classification process. In accordance with the above methods, we proposed a hybrid linear feature extraction scheme called "feature extraction using gradient descent with hybrid initialization" (FE_GD_HI). This method, based on a unified criterion, was able to take advantage of several powerful linear discriminant methods. The linear transformation is computed using a descent gradient method. The strength of this approach is that it is generic in the sense that it allows fine tuning of the hybrid solution provided by different methods. Finally, we proposed a new efficient ensemble learning approach that aims to estimate an improved data representation. The proposed method is called "ICS Based Ensemble Learning for Image Classification" (EM_ICS). Instead of using multiple classifiers on the transformed features, we aim to estimate multiple extracted feature subsets. These were obtained by multiple learned linear embeddings. Multiple feature subsets were used to estimate the transformations, which were ranked using multiple feature selection techniques. The derived extracted feature subsets were concatenated into a single data representation vector with strong discriminative properties. Experiments conducted on various benchmark datasets ranging from face images, handwritten digit images, object images to text datasets showed promising results that outperformed the existing state-ofthe- art and competing methods.

Ver más...

Konputazio fisiologikorako ekarpenak ikasketa automatikoaren bidez/Contributions to physiological computing by means of automatic learning.

SALAZAR RAMIREZ, ASIER

Dirección:
ARRUTI ILLARRAMENDI, ANTONIO;
MARTIN ARAMBURU, JOSE IGNACIO
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

El trabajo presentado en esta tesis se enmarca dentro de dos áreas dentro de la computación fisiológica, que a su vez forma parte de las ciencias de la computación. La primera área trabajada corresponde a la de la detección de fenómenos psicológicos y estados mentales mediante la monitorización de las variables fisiológicas de las personas. La segunda área que se estudia en esta tesis forma parte del estudio de formas alternativas de interacción: los interfaces cerebro-computador. La primera contribución mejora un sistema de lógica difusa que, mediante la monitorización de las señales fisiológicas, es capaz de dar una estimación continuada en el tiempo del nivel del estrés mental. La segunda contribución continua con esta línea y estudia la detección de las respuestas fisiológicas del fenómeno opuesto al estrés: la relajación. En esta contribución se presentan características innovadoras que facilitan dicha detección y la pone en práctica con métodos de aprendizaje automático. Finalmente, la tercera contribución estudia diferentes técnicas de aprendizaje para distinguir entre cuatro clases de movimiento más una quinta clase de no intencionalidad de movimiento en un problema de BCI.

Ver más...

Contribution to Graph-based Manifold Learning with Application to Image Categorization.

ZHU , RUIFENG

Dirección:
DORNAIKA , FADI
Menciones:
Cum Laude
Tésis Internacional
Tésis en Cotutela
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

Los algoritmos de aprendizaje de variedades basados en grafos (Graph,based manifold) son técnicas que han demostrado ser potentes herramientas para la extracción de características y la reducción de la dimensionalidad en los campos de reconomiento de patrones, visión por computador y aprendizaje automático. Estos algoritmos utilizan información basada en las similitudes de pares de muestras y del grafo ponderado resultante para revelar la estructura geométrica intrínseca de la variedad.

Ver más...

Efficient meta-heuristics for spacecraft trajectory optimization

SHIRAZI , ABOLFAZL

Dirección:
CEBERIO URIBE, JOSU;
LOZANO ALONSO, JOSE ANTONIO
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

Uno de los problemas más difíciles de la ingeniería espacial es la optimización de la trayectoria de las naves espaciales. Dicha optimización puede formularse como un problema de optimización que dependiendo del tipo de trayectoria, puede contener además restricciones de diversa índole. El principal objetivo de esta tesis fue el desarrollo de algoritmos metaheurísticos eficientes para la optimización de la trayectoria de las naves espaciales. Concretamente, nos hemos centrado en plantear soluciones a maniobras de naves espaciales que contemplan cambios de orbitas de largo y coto alcance. En lo que respecta a la investigación llevada a cabo, inicialmente se ha realizado una revisión de estado del arte sobre optimización de cambios de orbitas de naves espaciales. Según el estudio realizado, la optimización de trayectorias para el cambio de orbitas cuenta con cuatro claves, que incluyen la modelización matemática del problema, la definición de las funciones objetivo, el diseño del enfoque a utilizar y la obtención de la solución del problema. Una vez realizada la revisión del estado del arte, se han desarrollado dos algoritmos metaheurísticos. En primer lugar, se ha desarrollado un algoritmo evolutivo híbrido auto-adaptativo para problemas de cambio de orbitas de largo alcance y multi-impulso. El algoritmo es un método híbrido, combinado con técnicas de autoajuste y un procedimiento de refinamiento individual basado en el uso de distribuciones de probabilidad. Posteriormente, en lo que respecta a los problemas de optimización de trayectoria de los encuentros espaciales de corto alcance, se desarrolla un algoritmo de estimación de distribuciones con mecanismos de conservación de viabilidad. Los mecanismos propuestos aplican métodos innovadores de inicialización, aprendizaje y mapeo dentro del proceso de optimización. Incluyen mixturas de modelos probabilísticos, algoritmos de detección de soluciones atípicas y algunas técnicas heurísticas dentro del proceso de mapeo. Paralelamente al desarrollo de los algoritmos, se ha desarrollado un software de simulación para la visualización de los resultados obtenidos en el cambio de orbitas de las naves espaciales.

Ver más...

Contributions for the exploitation of Semantic Technologies in Industry 4.0

RAMIREZ DURAN, VICTOR JULIO

Dirección:
BERGES GONZALEZ, IDOIA;
ILLARRAMENDI ECHAVE, MARIA ARANZAZU
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2021
Resumen:

En este trabajo de investigación se promueve la utilización de las tecnologías semánticas, en el entorno de la Industria 4.0, a través de tres contribuciones enfocadas en temas correspondientes a la fabricación inteligente: las descripciones enriquecidas de componentes, la visualización y el análisis de los datos, y la implementación de la Industria 4.0 en PyMEs. La primera contribución es una ontología llamada ExtruOnt, la cual contiene descripciones semánticas de un tipo de máquina de fabricación (la extrusora). En esta ontología se describen los componentes, sus conexiones espaciales, sus características, sus representaciones en tres dimensiones y, finalmente, los sensores utilizados para capturar los datos. La segunda contribución corresponde a un sistema de consulta visual en el cual se utiliza la ontología ExtruOnt y una representación en 2D de la extrusora para facilitar a los expertos de dominio la visualización y la extracción de conocimiento sobre el proceso de fabricación de una manera rápida y sencilla. La tercera contribución consiste en una metodología para la implementación de la Industria 4.0 en PyMEs, orientada al ciclo de vida del cliente y potenciada por el uso de tecnologías Semánticas y tecnologías de renderizado 3D. Las contribuciones han sido desarrolladas, aplicadas y validadas bajo un escenario de fabricación real.

Ver más...

Survival analysis and classification study of software process improvement initiatives and their implications in small companies/Software prozesuen hobekuntzarako ekimenen biziraupen-analisia eta sailkapen-ikasketa, eta horien ondorioak enpresa txikietan.

LARRUCEA URIARTE, XABIER

Dirección:
FERNANDEZ GAUNA, BORJA
Menciones:
Cum Laude
Tésis Internacional
Calificación:
Sobresaliente Cum Laude
Año:
2020
Resumen:

Softwareak funtsezko papera dauka negozio gehienetan. Hain zuzen ere, edozein negozioren abantaila lehiakorraren gako nagusietako bat dela esan daiteke. Software hori enpresa handi, ertain edo txikiek sor dezakete. Testuinguru horretan, erakunde mota horiek prozesuak hobetzeko ekimenak martxan jartzeko hautua egiten dute, merkatuan eskaintzen dituzten zerbitzuen edo azken produktuen kalitatea hobetzeko helburuarekin. Hortaz, ohikoa izaten da enpresa handi eta ertainek azken produktuen garapen-prozesuak zehaztea, are eredugarriak diren kalitate-ereduak erabiltzea, industriatik eratorritako jardunbide egokiekin. Izan ere, hobekuntza-ekimen bat aurrera eramaten laguntzeko erreferentziazko eredu eta estandar asko daude. Hortaz, erakundeek hainbat eredutako eskakizunak bete behar izaten dituzte aldi berean. Estandar horien barruan antzekoak diren praktika edo eskakizunak egon ohi dira (bikoiztasunak), edo neurri handiko erakundeentzat pentsatuta daudenak. Erakunde txikien esparruan, bikoiztasun horiek gainkostua eragiten dute ekimen hauetan. Horren ondorioz, erreferentziazko ereduekin loturiko prozesuak zehazteko orduan, burokrazia-lana handitu egiten da. Horrez gain, eredu hauen bikoiztasunak ezabatzera eta bere prozesuak hainbat arau aldi berean aintzat hartuta berraztertzera behartzen ditu. Egoera hori bereziki delikatua da 25 langiletik behera dituzten erakunde txikientzat, Very Small Entities (VSE) izenez ere ezagunak direnak. Erakunde mota hauek ahal duten modurik onenean erabiltzen dituzte haien baliabideak, eta, haien ikuspegitik, erreferentziazko eredu hauek gastu bat dira inbertsio bat baino gehiago. Hortaz, ez dute prozesuak hobetzeko ekimenik martxan jartzen. Ildo horretatik, erakunde horiei VSE-en beharretara egokituko zen eredu bat eskaintzeko sortu zen ISO/IEC 29110. ISO/IEC 29110 arauaren lehen edizioa 2011n sortu zen eta, ordutik, zenbait ikerketa-lan eta industria-esperientzia garatu dira testuinguru horren barruan. Batetik, ez dago VSE-ekin loturik dauden nahikoa industria-esperientzia, eta, beraz, ez da erraza jakitea zein den VSE-en portaera. 2011tik, ISO/IEC29110 arauarekin zerikusia duten hainbat lan argitaratu dira, baina, orain arte, lan horien tipologia oso desberdina izan da. Horrenbestez, ezinbestekoa da lehen esperientzia hauek aztertu eta ezagutzea, egindako lehen lan horiek sailkatu ahal izateko. Bestetik, prozesuak hobetzeko ekimenek ez dute beti arrakastarik izaten, eta mota honetako ekimen baten iraupena zein izango den ere ez da gauza ziurra izaten. Hartara, ekimen hauek testuinguru hauetan daukaten biziraupen maila zein den aztertu behar da, bai eta VSE-etan prozesuak hobetzeko ekimenak garatu eta ezarri bitartean eman daitezkeen lan-ereduak identifikatzea ere. Azkenik, garatzen dituzten produktuen segurtasun-arloarekin kezka berezia izan ohi dute VSEk. Hortaz, segurtasun-alderdi nagusiak kudeatzeko mekanismoak ezarri behar izaten dituzte. Lehenik eta behin, lan honetan, ISO/IEC 29110 arauarekin loturiko artikuluen azterketa metodiko bat egin dugu, eta ikerketa-esparru nagusiak eta egindako lan mota garrantzitsuenak jaso ditugu. Bigarrenik, VSEk prozesuak hobetzeko martxan jarritako mota honetako ekimenen biziraupena aztertzeko marko bat proposatu dugu. Hirugarrenik, haien portaeraren ezaugarriak zehazteko, ekimen hauetan ematen diren ereduak identifikatzeko ikuspegia landu dugu. Laugarrenik, VSEn softwarearen garapenaren bizi-zikloan segurtasun-arloko alderdiak gehitzeko eta zor teknikoa kudeatzeko proposamena egin dugu.

Ver más...

Contributions to the study of Austism Spectrum Brain conectivity

SILVA CHOQUE, MOISES MARTIN

Dirección:
GRAÑA ROMAY, MANUEL MARIA
Calificación:
Sobresaliente
Año:
2021
Resumen:

Autism Spectrum Disorder (ASD) is a largely prevalent neurodevelopmental condition with a big social and economical impact affecting the entire life of families. There is an intense search for biomarkers that can be assessed as early as possible in order to initiate treatment and preparation of the family to deal with the challenges imposed by the condition. Brain imaging biomarkers have special interest. Specifically, functional connectivity data extracted from resting state functional magnetic resonance imaging (rs-fMRI) should allow to detect brain connectivity alterations. Machine learning pipelines encompass the estimation of the functional connectivity matrix from brain parcellations, feature extraction and building classification models for ASD prediction. The works reported in the literature are very heterogeneous from the computational and methodological point of view. In this Thesis we carry out a comprehensive computational exploration of the impact of the choices involved while building these machine learning pipelines.

Ver más...