Titulo - Tesis defendidas

Defendatutako tesiak

Tabla tesis - ingeniería Informática

Indicadores
  Egungo doktorego programak Aurreko doktorego programak
Defendatutako tesiak 40 131
Sari bereziak - 4
Doktorego tesiak kotutoretzan 3 4
Nazioarteko doktorego tesiak 18 61
Doktorego industrialak 1 -

 

XSLaren edukia

Egungo programan irakurritako tesiak

Compendio de métodos para caracterizar la geometría de los tejidos cerebrales a partir de imágenes de resonancia magnética por difusión del agua

CANALES RODRIGUEZ, ERICK JORGE

Zuzendariak:
SALVADOR CIVIL, RAYMOND;
YURRAMENDI MENDIZABAL, JESUS MARIA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2016
Laburpena:

La técnica de imagen de resonancia magnética por difusión es una modalidad de imagen de resonancia magnética empleada para estudiar el proceso de difusión molecular del agua en tejidos biológicos. En los últimos años esta técnica ha sido la principal herramienta para estudiar la microestructura y organización espacial de los tejidos del cerebro de forma no invasiva. Entre los métodos de análisis que se han propuesto para modelar e interpretar los datos observados, el modelo del tensor de difusión fue el primero en considerar la anisotropía del proceso de difusión del agua en el cerebro, donde la difusión ocurre de forma desigual en diferentes direcciones debido a la disposición espacial de los tejidos. Sin embargo, en este modelo se asume que el proceso de difusión tiene una geometría elipsoidal, suposición inválida para muchas regiones del cerebro que compromete la interpretación de los resultados. Tal limitación ha impulsado el reciente desarrollo de nuevos modelos teóricos, esquemas de medición y algoritmos de reconstrucción. A pesar de la notable mejora que introducen estos métodos en relación al tensor de difusión, algunos de ellos tienen limitaciones prácticas y su formulación teórica aún se encuentra en creciente desarrollo; en otros, los métodos numéricos empleados en la estimación no son necesariamente óptimos debido a que han obviado aspectos que podrían ser relevantes. Con el objetivo de extender y perfeccionar varias de las herramientas modernas dedicadas a la modelización de imágenes de resonancia magnética por difusión, en el marco de esta tesis se presenta un compendio de métodos para obtener estimadores más realistas de la estructura arquitectónica del cerebro humano. Las técnicas desarrolladas en este compendio encuentran aplicación en las neurociencias, la medicina y la psiquiatría. Estas han sido publicadas en revistas científicas de alto impacto y son actualmente empleadas en el estudio de las alteraciones cerebrales en pacientes con enfermedades mentales.

Gehiago jakin...

Design science research in PhD education: designing for assistance tools

PEREZ CONTELL, JEREMIAS

Zuzendariak:
DIAZ GARCIA, OSCAR
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

scholars. Major conferences have tracks dedicated to DSR, and even leading journals have published special issues on it. In line with this momentum, DSR has also gained acceptance among PhD students. Indeed, DSR is well regarded for its ability to bring together theoretical and practical knowledge, addressing both rigor and relevance. But in exchange, DSR calls for high levels of commitment and maturity. PhD students, as they are transitioning towards becoming independent researchers, usually lack such maturity. On top of that, the lack of widely accepted software tools for conducting DSR does not help. This Thesis is aimed at providing PhD students with tool support for carrying out DSR. To that end, we focus on problematic situations related to four basic activities conducted throughout the doctorate: inquiry, reading, writing and peer review. For each of these problems, a purposeful artifact is designed, developed and evaluated with real stakeholders. The outcome: DScaffolding and Review&Go, two browser extensions for Google Chrome currently in use by practitioners.

Gehiago jakin...

Inteligencia computacional en sistemas de teleasistencia en domicilios

MORENO FERNANDEZ DE LECETA, AITOR

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA;
LOPEZ GUEDE, JOSE MANUEL
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

Este trabajo presenta un sistema inteligente de predicción del comportamiento de cara a prevenir situaciones de riesgo en el hogar, y que está orientado principalmente orientado a personas mayores. El sistema presenta una modelo híbrido basado en Reglas Heurísticas introducidas por expertos en el dominio, y un Módulo de Detección Automática de Patrones, conformado por un sistema combinado de clasificadores basados en técnicas de Inteligencia Artificial. El sistema ha sido probado en entornos reales y productivos en diversos domicilios. Para lograrlo, el sistema utiliza por un lado la información de sensores simples en el hogar, por otro el conocimiento de sus actividades físicas recopiladas por aplicaciones móviles y por último la información de salud personalizada basada en informes clínicos codificados en el sistema. Actualmente, se está implantando en condiciones reales, con una precisión superior al 81%.

Gehiago jakin...

Methodological contributions by means of machine learning methods for automatic music generation and classification

GOIENETXEA URKIZU, IZARO

Zuzendariak:
CONKLIN , DARRELL;
MENDIALDUA BEITIA, IÑIGO;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

Ikerketa lan honetan bi gai nagusi landu dira: musikaren sorkuntza automatikoa eta sailkapena. Musikaren sorkuntzarako bertso doinuen corpus bat hartu da abiapuntu moduan doinu ulergarri berriak sortzeko gai den metodo bat sortzeko. Doinuei ulergarritasuna hauen barnean dauden errepikapen egiturek ematen dietela suposatu da, eta metodoaren hiru bertsio nagusi aurkeztu dira, bakoitzean errepikapen horien definizio ezberdin bat erabiliz. Musikaren sailkapen automatikoan hiru ataza garatu dira: generoen sailkapena, familia melodikoen taldekatzea eta konposatzaileen identifikazioa. Musikaren errepresentazio ezberdinak erabili dira ataza bakoitzerako, eta ikasketa automatikoko hainbat teknika ere probatu dira, emaitzarik hoberenak zeinek ematen dituen aztertzeko. Gainbegiratutako sailkapenaren alorrean ere binakako sailkapenaren gainean lana egin da, aurretik existitzen zen metodo bat optimizatuz. Hainbat datu baseren gainean probatu da garatutako teknika, baita konposatzaile klasikoen piezen ezaugarriez osatutako datu base batean ere.

Gehiago jakin...

K-means for massive data

CAPO RANGEL, MARCO VINICIO

Zuzendariak:
LOZANO ALONSO, JOSE ANTONIO;
PEREZ MARTINEZ, ARITZ
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

In this dissertation we tackle all these difficulties. Initially, we propose an approximation to the K means problem, the Recursive Partition-based K-means algorithm (RPKM). This approach consists of recursively applying a weighted version of K-means algorithm over a sequence of spatial-based partitions of the data set. From one iteration to the next, a more refined partition is constructed and the process is repeated using the optimal set of centroids, obtained at the previous iteration, as initialization. From practical stand point, such a process reduces the computational load of K-means algorithm as the number of representatives, at each iteration, is meant to be much smaller than the number of instances of the data set. On the other hand, both phases of the algorithm are embarrasingly parallel. From the theoretical standpoint, and in spite of the selected partition strategy, one can guarantee the non-repetition of the clusterings generated at each RPKM iteration, which ultimately implies the reduction of the total amount of K-means algorithm iterations, as well as leading, in most of the cases, to a monotone decrease of the overall error function. Afterwards, we report on a RPKM-type approach, the Boundary Weighted K-means algorithm (BWKM). For this technique the data set partition is based on an adaptative mesh, that adjusts the size of each grid cell to maximize the chances of each cell to have only instances of the same cluster. The goal is to focus most of the computational resources on those regions where it is harder to determine the correct cluster assignment of the original instances (which is the main source of error for our approximation). For such a construction, it can be proved that if all the cells of a spatial partition are well assigned (have instances of the same cluster) at the end of a BWKM step, then the obtained clustering is actually a fixed point of the K-means algorithm over the entire data set, which is generated after using only a small number of representatives in comparison to the actual size of the data set. Furthermore, if, for a certain step of BWKM, this property can be verified at consecutive weighted Lloyds iterations, then the error of our approximation also decreases monotonically. From the practical stand point, BWKM was compared to the state-of-the-art: K-means++, Forgy K-means, Markov Chain Monte Carlo K-means and Minibatch K-means. The obtained results show that BWKM commonly converged to solutions, with a relative error of under 1% with respect to the considered methods, while using a much smaller amount of distance computations (up to 7 orders of magnitude lower). Even when the computational cost of BWKM is linear with respect to the dimensionality, its error quality guarantees are mainly related to the diagonal length of the grid cells, meaning that, as we increase the dimensionality of the problem, it will be harder for BWKM to have such a competitive performance. Taking this into consideration, we developed a fully-parellelizable feature selection technique intended for the K-means algorithm, the Bounded Dimensional Distributed K-means algorithm (BDDKM). This approach consists of applying any heuristic for the K-means problem over multiple subsets of dimensions (each of which is bounded by a predefined constant, m<<d) and using the obtained clusterings to upper-bound the increase in the K-means error when deleting a given feature. We then select the features with the m largest error increase. Not only can each step of BDDKM be simply parallelized, but its computational cost is dominated by that of the selected heuristic (on m dimensions), which makes it a suitable dimensionality reduction alternative for BWKM on large data sets. Besides providing a theoretical bound for the obtained solution, via BDDKM, with respect the optimal K-means clustering, we analyze its performance in comparison to well-known feature selection and feature extraction techniques. Such an analysis shows BDDKM to consistently obtain results with lower K-means error than all the considered feature selection techniques: Laplacian scores, maximum variance and random selection, while also requiring similar or lower computational times than these approaches. Even more interesting, BDDKM, when compared to feature extraction techniques, such as Random Projections, also shows a noticeable improvement in both error and computational time. As a response to the high dependency of K-means algorithm to its initialization, we finally introduce a cheap Split-Merge step that can be used to re-start the K-means algorithm after reaching a fixed point, Split-Merge K-means (SMKM). Under some settings, one can show that this approach reduces the error of the given fixed point without requiring any further iteration of the K-means algorithm. Moreover, experimental results show that this strategy is able to generate approximations with an associated error that is hard to reach for different multi-start methods, such as multi-start Forgy K-means, K-means++ and Hartigan K-means. In particular, SMKM consistently generated the local minima with the lowest K-means error, reducing, on average, over 1 and 2 orders of magnitude of relative error with respect to K-means++ and Hartigan K-means and Forgy K-means, respectively. Not only does the quality of the solution obtained by SMKM tend to be much lower than the previously commented methods, but, in terms of computational resources, SMKM also required a much lower number of distance computations (about an order of magnitude less) to reach the lowest errors that they achieved.

Gehiago jakin...

Cloud point labelling in optical motion capture systems

JIMENEZ BASCONES, JUAN LUIS

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

This Thesis deals with the task of point labeling involved in the overall workflow of Optical Motion Capture Systems. Human motion capture by optical sensors produces at each frame snapshots of the motion as a cloud of points that need to be labeled in order to carry out ensuing motion analysis. The problem of labeling is tackled as a classification problem, using machine learning techniques as AdaBoost or Genetic Search to train a set of weak classifiers, gathered in turn in an ensemble of partial solvers. The result is used to feed an online algorithm able to provide a marker labeling at a target detection accuracy at a reduced computational cost. On the other hand, in contrast to other approaches the use of misleading temporal correlations has been discarded, strengthening the process against failure due to occasional labeling errors. The effectiveness of the approach is demonstrated on a real dataset obtained from the measurement of gait motion of persons, for which the ground truth labeling has been verified manually. In addition to the above, a broad sight regarding the field of Motion Capture and its optical branch is provided to the reader: description, composition, state of the art and related work. Shall it serve as suitable framework to highlight the importance and ease the understanding of the point labeling.

Gehiago jakin...

Ikasketa automatikoan oinarritutako ekarpenak pertsona-konputagailu elkarrekintza hobetzeko/contributions to improve human-computer interaction using machine learning

YERA GIL, AINHOA

Zuzendariak:
ARBELAIZ GALLEGO, OLATZ;
MUGUERZA RIVERO, JAVIER FRANCISCO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

This PhD thesis contributes on designing and applying data mining techniques targeting the improvement of Human Computer Interaction (HCI) in different contexts. The main objectives of the thesis are to design systems based on data mining methods for modelling behaviour on interaction and use data. Moreover, having to work often in unsupervised learning contexts has lead to contribute methodologically to clustering validation regardless of the context; an unsolved problem in machine learning. Cluster Validity Indexes (CVIs) partially solve this problem by providing a quality score of the partitions, but none of them has proven to robustly face the broad range of conditions. In this regard, in the first contribution several CVI decision fusion (voting) approaches are proposed, showing that they are promising strategies for clustering validation. In the Human-Computer Interaction context, the contributions are structured in three different areas. The accessibility area is analysed in the first one where an efficient system to automatically detect navigation problems of users, with and without disabilities, is presented. The next contribution is focused on the medical informatics and it analyses the interaction in a medical dashboard used to support the decision-making of clinicians (SMASH). On the one hand, connections between visual and interaction behaviours on SMASH are studied. On the other hand, based on the interaction behaviours observed in SMASH, two main cohorts of users are automatically detected and characterised: primary (pharmacists) vs secondary (non-pharmacists). Finally, two contributions on the e-Services area are made, focusing on their interaction and use respectively. In the first one, potential students aiming to enrol the University of the Basque Country (UPV/EHU) are satisfactorily modelled based on the interactive behaviours they showed in the web of this university. The second one, empirically analyses and characterises the use of e-Government services in different European countries based on survey data provided by Eurostat. LABURPENA: Doktorego-tesi honek, hainbat testuingurutan, Pertsona-Konputagailu Elkarrekintzaren (PKE) hobekuntzarako datuen meatzaritzako teknikak diseinatzen eta aplikatzen laguntzen du. Tesiaren helburu nagusiak datu-meatzaritzako metodoetan oinarritutako sistemak diseinatzea da, elkarrekintza- eta erabilera-datuen portaera modelatzeko. Gainera, gainbegiratu gabeko ikasketa-testuinguruekin sarritan lan egin behar izanak, datuen testuinguru guztiei zuzendutako clusteringa baliozkotzeari buruzko ekarpen metodologikoa egitera bultzatu gaitu. Kluster baliozkotze indizeek (CVI) partizioen kalitate-neurri bat ematen duten heinean, arazo hau partzialki ebazten dute, baina horietako batek ere ez du erakutsi egoeren espektro handiari aurre egiteko gaitasuna. Ildo honetatik, lehen kontribuzioan CVIen arteko erabaki-fusioen (bozketa) hainbat sistema proposatzen ditugu, eta klusteringa baliozkotzeko estrategia eraginkorrak direla erakusten dugu. Pertsona-Konputagailu Elkarrekintzaren testuinguruan, ekarpenak hiru arlotan egituratuta daude. Irisgarritasun arloa lehenengo kontribuzioan aztertzen da, sistema eraginkor bat aurkeztuz, desgaitasuna duten eta desgaitasuna ez duten erabiltzaileen nabigazio-arazoak automatikoki detektatzen dituena. Hurrengo ekarpena informatika-medikoan zentratzen da eta medikuei erabakiak hartzeko jardueretan laguntzeko erabiltzen den osasun-arbela mediko baten (SMASH) elkarrekintza aztertzen du. Batetik, SMASH arbelean portaera bisualen eta interaktiboen arteko loturak aztertzen dira. Bestalde, SMASH arbelean antzemandako portaera interaktiboen arabera, bi erabiltzaile talde nagusi detektatu eta ezaugarritu dira: lehen mailakoak (farmazialariak) eta bigarren mailakoak (ez farmazialariak). Azkenik, bi kontribuzio egiten dira zerbitzu elektronikoen (e-Zerbitzuen) arloan, elkarrekintza eta erabileran oinarrituz, hurrenez hurren. Lehenengoan, Euskal Herriko Unibertsitatean (UPV/EHU) izena eman nahi duten ikasle potentzialak modu eraginkorrean modelatu dira unibertsitate honen webgunean erakutsitako jokabide interaktiboen arabera. Bigarrenean, gobernuko e-Zerbitzuen erabilera aztertu da Europako hainbat herrialdetan, Eurostatek emandako inkesta-datuetan oinarrituz. RESUMEN: Esta tesis doctoral contribuye al diseño y la aplicación de técnicas de minería de datos dirigidas a la mejora de la Interacción Persona-Computadora (IPC) en diferentes contextos. Los objetivos principales de la tesis son diseñar sistemas basados en métodos de minería de datos para modelar el comportamiento en datos de interacción y uso. Además, como los contextos de aprendizaje no supervisado han sido una constante en nuestro trabajo, hemos contribuido metodológicamente a la validación de clustering independientemente del contexto de los datos; problema no resuelto en el aprendizaje automático. Los índices de validación de cluster (CVI) resuelven parcialmente este problema al proporcionar un valor cuantitativo de calidad de las particiones, pero ninguno de ellos ha demostrado poder enfrentarse de manera robusta en una amplia gama de condiciones. En este sentido, en la primera contribución se proponen varios sistemas de fusión de decisiones (votaciones) entre CVIs, demostrando que son estrategias prometedoras para la validación de cluster. En el contexto de Interacción-Persona Computador, las contribuciones están estructuradas en tres áreas diferentes. En la primera de ellas se analiza el área de accesibilidad, presentando un sistema eficiente para detectar automáticamente los problemas de navegación de los usuarios, con y sin discapacidad. La siguiente contribución se centra en la informática médica y analiza la interacción en una pizarra médica web (SMASH) utilizada para asistir en la toma de decisiones de los médicos. Por un lado, se estudian las conexiones entre los comportamientos visuales y de interacción en SMASH. Por otro lado, en base a los comportamientos de interacción observados en SMASH, se detectan y caracterizan automáticamente dos grupos principales de usuarios: primario (farmacéuticos) y secundario (no farmacéuticos). Finalmente, se realizan dos contribuciones en el área de servicios electrónicos, centrándose en su interacción y uso, respectivamente. En la primera, se modelan satisfactoriamente los estudiantes que potencialmente desean matricularse en la Universidad del País Vasco (UPV / EHU), en función de los comportamientos interactivos que muestran en la web de esta universidad. La segunda contribución, analiza empíricamente y caracteriza el uso de los servicios de gobierno electrónico en diferentes países europeos en base a datos de encuestas proporcionados por Eurostat.

Gehiago jakin...

Long Life Application dedicated to smart-* usage.

KARCHOUD , RIADH

Zuzendariak:
ILLARRAMENDI ECHAVE, MARIA ARANZAZU
Aipamenak:
Nazioarteko tesia
Tesia Tutorekidetzan
Kalifikazioa:
Oso ongi
Urtea:
2017
Laburpena:

Nowadays, mobile devices host many applications that are directly downloaded and installed from mobile application stores. The existence of such a large amount of apps for a myriad of purposes imposes a huge overhead on users, who are in charge of selecting, installing, and executing the appropiate apps, as well as deleting them when no longer needed. Moreover, these applications have mostly neglected to take into account the user¿s context, as they porpose static non-evolving scenarios. These applications serve for specific purposes and get deleted or forgotten most of the time after the first use. Furthermore, these apps fail to consider the, soon coming, connected world due to theri monolithic architecture implemented to work on single devices.

Gehiago jakin...

Contributions to Vine-Copula Modeling

CARRERA SOTO, DIANA MARIA

Zuzendariak:
LOZANO ALONSO, JOSE ANTONIO;
SANTANA HERMIDA, ROBERTO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2022
Laburpena:

Regular vine-copula models (R-vines) are a powerful statistical tool for modeling the dependence structure of multivariate distribution functions. In particular, they allow modeling dierent types of dependencies among random variables independently of their marginal distributions, which is deemed the most valued characteristic of these models. In this thesis, we investigate the theoretical properties of R-vines for representing dependencies and extend their use to solve supervised classication problems. We focus on three research directions.! In the rst line of research, the relationship between the graphical representations of R-vines! ÁREA LÍNEA 1 2 0 3 0 4 ÁREA LÍNEA 1 2 0 3 1 7 ÁREA LÍNEA ÁREA LÍNEA ! and Bayesian polytree networks is analyzed in terms of how conditional pairwise independence! relationships are represented by both models. In order to do that, we use an extended graphical! representation of R-vines in which the R-vine graph is endowed with further expressiveness, being possible to distinguish between edges representing independence and dependence relationships. Using this representation, a separation criterion in the R-vine graph, called Rseparation, is dened. The proposed criterion is used in designing methods for building the graphical structure of polytrees from that of R-vines, and vice versa. Moreover, possible correspondences between the R-vine graph and the associated R-vine copula as well as dierent properties of R-separation are analyzed. In the second research line, we design methods for learning the graphical structure of R-vines from dependence lists. The main challenge of this task lies in the extremely large size of the search space of all possible R-vine structures. We provide two strategies to solve the problem of learning R-vines that represent the largest number of dependencies in a list. The rst approach is a 0 -1 linear programming formulation for building truncated R-vines with only two trees. The second approach is an evolutionary algorithm, which is able to learn complete and truncated R-vines. Experimental results show the success of this strategy in solving the optimization problem posed. In the third research line, we introduce a supervised classication approach where the dependence structure of the problem features is modeled through R-vines. The ecacy of these classiers is validated in a mental decoding problem and in an image recognition task. While Rvines have been extensively applied in elds such as economics, nance and statistics, only recently have they found their place in classication tasks. This contribution represents a step forward in understanding R-vines and the prospect of extending their use to other machine learning tasks.

Gehiago jakin...

Towards a fully mobile publish/subscribe system

AMOZARRAIN PEREZ, UGAITZ

Zuzendariak:
LARREA ALAVA, MIKEL
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

This PhD thesis makes contributions to support mobility and fault tolerance in a publish/subscribe system. Two protocols are proposed in order to support mobility of all devices in the system, including inside the event notification service. The protocols are designed with the idea that any change due to mobility is completely beyond our control and ability to predict. Moreover, the proposed solutions do not need to know neither the amount of nodes in the system nor their identities before starting, the system is able to adapt to new devices or disconnections and is able to keep operating correctly in a partitioned network. To do so we extend a previously proposed framework called Phoenix that already supported client mobility. Both protocols use a leader election mechanism to create a communication tree in a highly dynamic environment, and use a characteristic of that algorithm to detect topology changes and migrate nodes accordingly.

Gehiago jakin...

Semantic technologies for supporting KDD processes

ESNAOLA GONZALEZ, IKER

Zuzendariak:
BERMUDEZ DE ANDRES, JESUS;
FERNANDEZ GONZALEZ, IZASKUN
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

Achieving a comfortable thermal situation within buildings with an efficient use of energy remains still an open challenge for most buildings. In this regard, IoT (Internet of Things) and KDD (Knowledge Discovery in Databases) processes may be combined to solve these problems, even though data analysts may feel overwhelmed by heterogeneity and volume of the data to be considered. Data analysts could benefit from an application assistant that supports them throughout the KDD process. This research work aims at supporting data analysts through the different KDD phases towards the achievement of energy efficiency and thermal comfort in tertiary buildings. To do so, the EEPSA (Energy Efficiency Prediction Semantic Assistant) is proposed, which aids data analysts discovering the most relevant variables for the matter at hand, and informs them about relationships among relevant data. This assistant leverages Semantic Technologies such as ontologies, ontology-driven rules and ontology-driven data access. More specifically, the EEPSA ontology is the cornerstone of the assistant. This ontology is developed on top of three ODPs (Ontology Design Patterns) and it is designed so that its customization to address similar problems in different types of buildings can be approached methodically.

Gehiago jakin...

Contributions from computational intelligence to healthcare data processing

GARMENDIA MUJICA, ASIER

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA;
LOPEZ GUEDE, JOSE MANUEL
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2016
Laburpena:

The increasing ability to gather, store and process health care information, through the electronic health records and improved communication methods opens the door for new applications intended to improve health care in many different ways. Crucial to this evolution is the development of new computational intelligence tools, related to machine learning and statistics. In this thesis we have dealt with two case studies involving health data. The first is the monitoring of children with respiratory diseases in the pediatric intensive care unit of a hospital. The alarm detection is stated as a classification problem predicting the triage selected by the nurse or medical doctor. The second is the prediction of readmissions leading to hospitalization in an emergency department of a hospital. Both problems have great impact in economic and personal well being. We have tackled them with a rigorous methodological approach, obtaining results that may lead to a real life implementation. We have taken special care in the treatment of the data imbalance. Finally we make propositions to bring these techniques to the clinical environment.

Gehiago jakin...

Contributions to Natural Language Processing and Hierarchical Classification.

MONTENEGRO PORTILLO, CESAR

Zuzendariak:
CALVO MOLINOS, BORJA;
INZA CANO, IÑAKI;
LOZANO ALONSO, JOSE ANTONIO;
SANTANA HERMIDA, ROBERTO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2024
Laburpena:

El envejecimiento de la población se define como el aumento progresivo de la proporción de personas de 65 años o más con respecto a la población total. En Europa, se prevé que el porcentaje de población mayor de 65 años aumente del 16% en 2010 al 29% en 2060. En este contexto, enfrentar la alta demanda de infraestructuras y servicios para satisfacer las necesidades de atención es un desafío difícil de asumir sin el uso de soluciones tecnológicas. Por este motivo, esta tesis doctoral tiene como objetivo contribuir al desarrollo de un Coach Virtual diseñado para ofrecer cuidados y atención personalizados. Como resultado de esta investigación, a lo largo de esta tesis se exponen diferentes contribuciones al desarrollo del Coach Virtual creado en el proyecto EMPATHIC (Empathic, Expressive, Advanced Virtual Coach to Improve Independent Healthy-Life-Years of the Elderly) (http://www.empathic-project.eu/). La tesis está dividida en dos partes, donde la primera introduce el ámbito de los asistentes virtuales y el procesamiento del lenguaje natural, y presenta dos contribuciones específicas en el ámbito de los asistentes virtuales. Como consecuencia de la taxonomía propuesta en la segunda contribución de la primera parte, la segunda parte introduce el paradigma de la clasificación jerárquica y presenta dos contribuciones en este ámbito, que son más generales y, por lo tanto, aplicables en ámbitos más allá de los asistentes virtuales. La primera contribución de la segunda parte presenta el paradigma de la clasificación jerárquica con etiquetado débil, donde se proponen una serie de métodos que tienen la capacidad de resolver problemas de gran tamaño en menos tiempo. La última contribución de la tesis se centra en el paradigma de la clasificación jerárquica multi-dimensional, donde se proponen medidas y métodos para resolver dichos problemas de manera eficiente, explotando las relaciones entre las diferentes dimensiones.

Gehiago jakin...

Contributions to the Modelling of Auditory Hallucinations, Social robotics, and Multiagent Systems

OZAETA RODRIGUEZ, LEIRE

Zuzendariak:
CHYZHYK , DARYA;
GRAÑA ROMAY, MANUEL MARIA
Aipamenak:
Nazioarteko tesia
Kalifikazioa:
Bikain
Urtea:
2021
Laburpena:

The Thesis covers three diverse lines of work that have been tackled with the central endeavor of modeling and understanding the phenomena under consideration. Firstly, the Thesis works on the problem of finding brain connectivity biomarkers of auditory hallucinations, a rather frequent phenomena that can be related some pathologies, but which is also present in healthy population. We apply machine learning techniques to assess the significance of effective brain connections extracted by either dynamical causal modeling or Granger causality. Secondly, the Thesis deals with the usefulness of social robotics strorytelling as a therapeutic tools for children at risk of exclussion. The Thesis reports on the observations gathered in several therapeutic sessions carried out in Spain and Bulgaria, under the supervision of tutors and caregivers. Thirdly, the Thesis deals with the spatio-temporal dynamic modeling of social agents trying to explain the phenomena of opinion survival of the social minorities. The Thesis proposes a eco-social model endowed with spatial mobility of the agents. Such mobility and the spatial perception of the agents are found to be strong mechanisms explaining opinion propagation and survival.

Gehiago jakin...

Contributions to virtual reality

SEGURA LASA,ALVARO

Zuzendariak:
FLOREZ ESNAL, JULIAN;
GARCIA ALONSO MONTOYA, ALEJANDRO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

The thesis contributes in three Virtual Reality areas: ¿ Visual perception: a calibration algorithm is proposed to estimate stereo projection parameters in head-mounted displays, so that correct shapes and distances can be perceived, and calibration and control procedures are proposed to obtain desired accommodation stimuli at different virtual distances. ¿ Immersive scenarios: the thesis analyzes several use cases demanding varying degrees of immersion and special, innovative visualization solutions are proposed to fulfil their requirements. Contributions focus on machinery simulators, weather radar volumetric visualization and manual arc welding simulation. ¿ Ubiquitous visualization: contributions are presented to scenarios where users access interactive 3D applications remotely. The thesis follows the evolution of Web3D standards and technologies to propose original visualization solutions for volume rendering of weather radar data, e-learning on energy efficiency, virtual e-commerce and visual product configurators.

Gehiago jakin...

Contributions to Attributed Probabilistic Finite State Bi-Automata for Dialogue Management

SERRAS SAENZ, MANEX

Zuzendariak:
POZO ECHEZARRETA,MARIA ARANZAZU, DEL;
TORRES BARAÑANO, MARIA INES
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

Task-oriented Spoken Dialogue Systems (SDSs), also known as Conversational Assistants, have been generating a great deal of interest in recent years, as they can be used to automate repetitive and low-value tasks and processes which use a natural communication channel. One basic component of every task-oriented SDS is the Dialogue Manager (DM), which is responsible for tracking the current state of the conversation and for deciding the next action of the system. This dissertation intends to improve a data-driven framework based in stochastic finite-state transducers for DM modelling in task-oriented SDSs: the Attributed Probabilistic Finite State Bi-Automata (A-PFSBA). Several contributions are presented that enhance the A-PFSBA based DM in different aspects. First, its model generalisation mechanism is improved to better employ context, the semantic relation between dialogue states and the spatial relations of the dialogue state space. Second, the A-PFSBA theoretical framework is extended for policy-making. In the same way, multiple policies with different degrees of complexity are implemented following this formulation. Third, a simple-yet-effective algorithm is proposed to incrementally learn an initial DM, which can be adjusted to work under uncertainty. Finally, the potential of the A-PFSBA framework to be deployed in data scarcity and zero-data scenarios and its capability to bridge the gap between data-driven and rule-based paradigms for DM development is tested. The presented contributions have been validated using two well-known corpora: the Let¿s Go corpus and the Dialogue State Tracking Challenge 2 corpus. In order to validate the viability of the A-PFSBA framework in industrial scenarios, three applications that employ the A-PFSBA formulation and which have been validated by real users are also presented.

Gehiago jakin...

Ubiquitous volume rendering in the web platform

ARBELAIZ ARANZASTI ANDER

Zuzendariak:
GARCIA ALONSO MONTOYA, ALEJANDRO;
MORENO GUERRERO,AITOR
Kalifikazioa:
Bikain
Urtea:
2019
Laburpena:

The main thesis hypothesis is that ubiquitous volume rendering can be achieved using WebGL. The thesis enumerates the challenges that should be met to achieve that goal. The results allow web content developers the integration of interactive volume rendering within standard HTML5 web pages. Content developers only need to declare the X3D nodes that provide the rendering characteristics they desire. In contrast to the systems that provide specific GPU programs, the presented architecture creates automatically the GPU code required by the WebGL graphics pipeline. This code is generated directly from the X3D nodes declared in the virtual scene. Therefore, content developers do not need to know about the GPU. The thesis extends previous research on web compatible volume data structures for WebGL, ray-casting hybrid surface and volumetric rendering, progressive volume rendering and some specific problems related to the visualization of medical datasets. Finally, the thesis contributes to the X3D standard with some proposals to extend and improve the volume rendering component. The proposals are in an advance stage towards their acceptance by the Web3D Consortium.

Gehiago jakin...

Camera perspective distortion in model-based visual localisation.

BARRENA ORUEECHEBARRIA, NAGORE

Zuzendariak:
GARCIA ALONSO MONTOYA, ALEJANDRO;
SANCHEZ TAPIA, JAIRO ROBERTO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

This thesis starts with a proposal for a collaborative global visual localization system. Then, it centres in a specific visual localisation problem: perspective distortion in template matching. The thesis enriches 3D point cloud models with a surface normal associated with each 3D point. These normals are computed using a minimization algorithm. Based in this new model, the thesis proposes an algorithm to increase the accuracy of visual localisation. The algorithm improves for template matching processes using surface normals. The hypothesis, `Given a 3D point cloud, surface orientation of the 3D points in a template matching process increases the number of inliers points found by the localisation system, that is, perspective compensation.' is objectively proved using a ground truth model. The ground truth is achieved through the design of a framework which using computer vision and computer graphics techniques carries out experiments without the noise of a real system, and prove in an objective way the hypothesis.

Gehiago jakin...

Computationally efficient deformable 3D object tracking with a monocular RGB camera

GOENETXEA IMAZ JON

Zuzendariak:
DORNAIKA , FADI;
UNZUETA IRURTIA, LUIS
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

Monocular RGB cameras are present in most scopes and devices, including embedded environments like robots, cars and home automation. Most of these environments have in common a significant presence of human operators with whom the system has to interact. This context provides the motivation to use the captured monocular images to improve the understanding of the operator and the surrounding scene for more accurate results and applications. However, monocular images do not have depth information, which is a crucial element in understanding the 3D scene correctly. Estimating the three-dimensional information of an object in the scene using a single two-dimensional image is already a challenge. The challenge grows if the object is deformable (e.g., a human body or a human face) and there is a need to track its movements and interactions in the scene. Several methods attempt to solve this task, including modern regression methods based on Deep Neural Networks. However, despite the great results, most are computationally demanding and therefore unsuitable for several environments. Computational efficiency is a critical feature for computationally constrained setups like embedded or onboard systems present in robotics and automotive applications, among others. This study proposes computationally efficient methodologies to reconstruct and track three-dimensional deformable objects, such as human faces and human bodies, using a single monocular RGB camera. To model the deformability of faces and bodies, it considers two types of deformations: non-rigid deformations for face tracking, and rigid multi-body deformations for body pose tracking. Furthermore, it studies their performance on computationally restricted devices like smartphones and onboard systems used in the automotive industry. The information extracted from such devices gives valuable insight into human behaviour a crucial element in improving human-machine interaction. We tested the proposed approaches in different challenging application fields like onboard driver monitoring systems, human behaviour analysis from monocular videos, and human face tracking on embedded devices.

Gehiago jakin...

Enriching remote labs with computer vision and drones

KHATTAR , FAWZI

Zuzendariak:
DORNAIKA , FADI;
LUTHON , FRANCK
Aipamenak:
Nazioarteko tesia
Tesia Tutorekidetzan
Kalifikazioa:
Bikain
Urtea:
2018
Laburpena:

With the technological advance, new learning technologies are being developed in order to contribute to better learning experience. In particular, remote labs constitute an interesting and a practical way that can motivate nowadays students to learn. The studen can at anytime, and from anywhere, access the remote lab and do his lab-work. Despite many advantages, remote tecnologies in education create a distance between the student and the teacher. Without the presence of a teacher, students can have difficulties, if no appropriate interventions can be taken to help them. In this thesis, we aim to enrich an existing remote electronic lab made for engineering students called "LaboREM" (for remote Laboratory) in two ways: first we enable the student to send high level commands to a mini-drone available in the remote lab facility. The objective is to examine the front panels of electronic measurement instruments, by the camera embedded on the drone. Furthermore, we allow remote student-teacher communication using the drone, in case there is a teacher present in the remote lab facility. Finally, the drone has to go back home when the mission is over to land on a platform for automatic recharge of the batteries. Second, we propose an automatic system that estimates the affective state of the student (frustrated/confused/flow) in order to take appropriate interventions to ensure good learning outcomes. For example, if the studen is having major difficulties we can try to give him hints or to reduce the difficulty level of the lab experiment. We propose to do this by using visual cues (head pose estimation and facil expression analysis). Many evidences on the state of the student can be acquired, however these evidences are incomplete, sometims inaccurate, and do not cover all the aspects of the state of the student alone. This is why we propose to fuse evidences using the theory of Dempster-Shafer that allows the fusion of incomplete evidence.

Gehiago jakin...

Implicación de usuarios en proyectos de investigación tecnológica (ImUPITec): análisis de procedimientos éticos, metodologías y herramientas y propuesta de mejora orientada a personas mayores

GARZO MANZANARES,AINARA

Zuzendariak:
GARAY VITORIA, NESTOR
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

Hoy en día es habitual implicar a los usuarios finales en los proyectos tecnológicos de investigación con la finalidad de mejorar la usabilidad, aceptación y utilidad de los sistemas o dispositivos a desarrollar. Existen numerosas técnicas y metodologías para la participación e implicación de usuarios y stakeholders, pero la selección de las más adecuadas no siempre es sencilla. Es muy importante identificar estas herramientas para trabajar con los usuarios objetivo, así como las dificultades que nos podemos encontrar con cada una de ellas. En este proyecto de tesis se parte de la hipótesis de que algunas herramientas no son adecuadas para ser utilizadas con personas mayores sin antes haber realizado ciertas adaptaciones. Por ello, en este trabajo se presenta un análisis de las diferentes metodologías de implicación de usuarios o stakeholders para la mejora del diseño y la usabilidad de desarrollos tecnológicos, así como una nueva metodología y clasificación de las herramientas asociadas a dicha metodología. A partir de esta propuesta se ha analizado el uso de algunas de las herramientas con la población mayor para realizar una serie de propuestas de mejora cuando se utilizan con dichas personas. Asimismo, se ha generado un repositorio web donde consultar las características de las herramientas. Adicionalmente, en este proyecto se discuten los aspectos éticos y legales que se deben tener en cuenta a la hora de implicar seres humanos en una investigación, y por tanto las dificultades que se encuentran los investigadores, específicamente en la rama tecnológica, a la hora de interpretar la documentación relacionada con esta temática. Para ello, se ha analizado la documentación acerca de los aspectos éticos y legales que aplican y se han desarrollado diferentes mecanismos que ayuden a los investigadores a interpretar las directivas, regulaciones, recomendaciones, buenas prácticas y legislación aplicable en cada caso. Por un lado, se han desarrollado una serie de plantillas para facilitar la tarea de completar el diseño metodológico que implica a seres humanos en la investigación, incluyendo el proceso de consentimiento informado. Por otro lado, se ha propuesto un diagrama de flujo de ayuda a la toma de decisiones a realizar. Por último, se ha creado una herramienta que da soporte a dicho diagrama. La herramienta desarrollada ha sido evaluada para mejorar su usabilidad y estos materiales se han puesto a disposición de los investigadores para que puedan ser utilizados en el día a día con proyectos reales. El trabajo realizado plantea una serie de líneas futuras de investigación que también se esbozan en esta memoria.

Gehiago jakin...

Theoretical and methodological advances in semi-supervised learning and the class-imbalance problem.

ORTIGOSA HERNANDEZ, JONATHAN

Zuzendariak:
INZA CANO, IÑAKI;
LOZANO ALONSO, JOSE ANTONIO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

Este trabajo se centra en la generalización teórica y práctica de dos situaciones desafiantes y conocidas del campo del aprendizaje automático a problemas de clasificación en los cuales la suposición de tener una única clase binaria no se cumple. Aprendizaje semi-supervisado es una técnica que usa grandes cantidades de datos no etiquetados para, así, mejorar el rendimiento del aprendizaje supervisado cuando el conjunto de datos etiquetados es muy acotado. Concretamente, este trabajo contribuye con metodologías potentes y computacionalmente eficientes para aprender, de forma semi-supervisada, clasificadores para múltiples variables clase. También, se investigan, de forma teórica, los límites fundamentales del aprendizaje semi-supervisado en problemas multiclase. El problema de desbalanceo de clases aparece cuando las variables objetivo presentan una distribución de probabilidad lo suficientemente desbalanceada como para desvirtuar las soluciones propuestas por los algoritmos de aprendizaje supervisado tradicionales. En este proyecto, se propone un marco teórico para separar la desvirtuación producida por el desbalanceo de clases de otros factores que afectan a la precisión de los clasificadores. Este marco es usado principalmente para realizar una recomendación de métricas de evaluación de clasificadores en esta situación. Por último, también se propone una medida del grado de desbalanceo de clases en un conjunto de datos correlacionada con la pérdida de precisión ocasionada.

Gehiago jakin...

Framework para el desarrollo y entrenamiento de sistemas de indeferencia difusa siguiendo métodos de desarrollo dirigido por modelos

SEGUNDO SANTAMARIA, UNAI

Zuzendariak:
PEREZ FERNANDEZ, TOMAS ANTONIO;
PIKATZA ATXA, JUAN MANUEL
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2017
Laburpena:

Este trabajo de tesis doctoral presenta un modelo independiente de la computación de un Diagnóstico Diferencial (DD), así como un modelo independiente de la plataforma de un Sistema de Inferencia Difusa. Se han utilizado los Métodos de Desarrollo Dirigido por Modelos (MDDM) en la concepción de los modelos, los cuales, además de facilitar la definición de los modelos, ofrecen herramientas para la realización de transformaciones entre ellos. Así, en el presente trabajo también se exponen las transformaciones entre los modelos de DD y SID y las transformaciones para la generación automática de SID expresados en lenguajes concretos a partir de los modelos de SID independientes de la plataforma. Los SID dependientes de la plataforma pueden ser incluidos en el formalismo de representación de Guías Clínicas Informatizadas (GCI) Aide. Así mismo, en la tesis también se incluye una descripción de las herramientas que facilitan la definición de modelos de DD y SID, así como la generación automática de SID en lenguajes concretos utilizables en distintos motores de razonamiento. Es de reseñar la adición de un módulo de aprendizaje automático mediante un Algoritmo Genético que permite adaptar algunas características de los modelos de SID a los datos reales de entrenamiento. Las herramientas y modelos se han validado en dos ámbitos. Por un lado, se han utilizado en el cribado neonatal, una prueba diagnóstica dirigida a la identificación presintomática de enfermedades graves con el fin de tratarlas precozmente y así prevenir y minimizar minusvalías neurológicas, orgánicas y psíquicas. Por otro lado, se han utilizado en el diagnóstico de la hiperamonemia, una Enfermedad Rara que se debe tratar de forma urgente para evitar graves secuelas neurológicas e incluso la muerte. En ambos casos, los SID creados se han integrado en unas GCI para ser evaluados.

Gehiago jakin...

Speech technologies for the audiovisual and multimedia interaction environments

ALVAREZ MUNIAIN, AITOR

Zuzendariak:
ARRUTI ILLARRAMENDI, ANTONIO;
POZO ECHEZARRETA,MARIA ARANZAZU, DEL
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2016
Laburpena:

En esta memoria de tesis, se analiza el estado actual de algunas tecnologías de análisis del audio y procesamiento del habla aplicadas a sectores como el audiovisual y el de interacción persona-maquina, y se describen tanto su aportación a las mismas como las nuevas contribuciones realizadas al estado del arte. Finalmente, se describen soluciones tecnológicas desarrolladas y su transferencia a diferentes entidades para su uso en la Industria.

Gehiago jakin...

Aplicación de modelos matemáticos para el mantenimiento predictivo.

JIMENEZ CORTADI, ALBERTO

Zuzendariak:
BOTO SANCHEZ,FERNANDO;
IRIGOYEN GARBIZU, ITZIAR
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

La presente memoria de tesis presenta una revisión sobre la actividad de investigación aplicada que se ha realizado mediante varios proyectos relacionados con el mantenimiento predictivo asociado a procesos industriales. Uno de los resultados principales es la realización de una herramienta web que permite al operador consultar el tiempo estimado hasta el fallo en un proceso de mecanizado y junto a ello un histórico de datos del sistema. Se han obtenido otros resultados que generan una evolución en el mantenimiento de los sistemas estudiados, lo que reduce el coste y aumenta la productividad de estos. Para ello se han aplicado metodologías híbridas donde el objetivo principal radicaba en la creación de una metodología de mantenimiento predictivo para cada uno de los procesos y en algún caso la posibilidad de generalización de esta a procesos similares.

Gehiago jakin...

Computational intelligence contributions to readmisision risk prediction in Healthcare systems

ARTETXE BALLEJO, ARKAITZ

Zuzendariak:
BERISTAIN IRAOLA, ANDONI;
GRAÑA ROMAY, MANUEL MARIA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2017
Laburpena:

The Thesis tackles the problem of readmission risk prediction in healthcare systems from a machine learning and computational intelligence point of view. Readmission has been recognized as an indicator of healthcare quality with primary economic importance. We examine two specific instances of the problem, the emergency department (ED) admission and heart failure (HF) patient care using anonymized datasets from three institutions to carry real-life computational experiments validating the proposed approaches. The main difficulties posed by this kind of datasets is their high class imbalance ratio, and the lack of informative value of the recorded variables. This thesis reports the results of innovative class balancing approaches and new classification architectures.

Gehiago jakin...

High performance scientific computing in applications with direct finite element simulation

KRISHNASAMY , EZHILMATHI

Zuzendariak:
JANSSON , JOHAN OLOF
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

La predicción del flujo separado, incluida la pérdida de un avión completo mediante la dinámica de fluidos computacional (CFD) se considera uno de los grandes desaf¿¿os que se resolverán en 2030, según NASA. Las ecuaciones no lineales de Navier-Stokes proporcionan la formulación matemática para flujo de fluidos en espacios tridimensionales. Sin embargo, todavia faltan soluciones clásicas, existencia y singularidad. Ya que el cálculo de la fuerza bruta es intratable para realizar simulación predictiva para un avión completo, uno puede usar la simulación numérica directa (DNS); sin embargo, prohibitivamente caro ya que necesita resolver la turbulencia a escala de magnitud Re power (9/4). Considerando otros métodos como el estad¿¿stico promedio Reynolds¿s Average Navier Stokes (RANS), spatial average Large Eddy Simulation (LES), y Hybrid Detached Eddy Simulation (DES), que requieren menos cantidad de grados de libertad. Todos estos métodos deben ajustarse a los problemas de referencia y, además, cerca las paredes, la malla tiene que ser muy fina para resolver las capas l¿¿mite (lo cual significa que el costo computacional es muy costoso). Por encima de todo, los resultados son sensibles a, por ejemplo, parámetros expl¿¿citos en el método, la malla, etc. Como una solución al desaf¿¿o, aqu¿¿ presentamos la adaptación Metodolog¿¿a de solución directa de FEM (DFS) con resolución numérica disparo, como una familia predictiva, libre de parámetros de métodos para flujo turbulento. Resolvimos el modelo de avión JAXA Standard Model (JSM) en número realista de Reynolds, presentado como parte del High Lift Taller de predicción 3. Predijimos un aumento de Cl dentro de un error de 5 % vs experimento, arrastre Cd dentro de 10 % error y detenga 1 ¿ dentro del ángulo de ataque.El taller identificó un probable experimento error de pedido 10 % para los resultados de arrastre. La simulación es 10 veces más rápido y más barato en comparación con CFD tradicional o existente enfoques. La eficiencia proviene principalmente del l¿¿mite de deslizamiento condición que permite mallas gruesas cerca de las paredes, orientada a objetivos control de error adaptativo que refina la malla solo donde es necesario y grandes pasos de tiempo utilizando un método de iteración de punto fijo tipo Schur, sin comprometer la precisión de los resultados de la simulación. También presentamos una generalización de DFS a densidad variable y validado contra el problema de referencia MARIN bien establecido. los Los resultados muestran un buen acuerdo con los resultados experimentales en forma de sensores de presión. Más tarde, usamos esta metodolog¿¿a para resolver dos aplicaciones en problemas de flujo multifásico. Uno tiene que ver con un flash tanque de almacenamiento de agua de lluvia (consorcio de agua de Bilbao), y el segundo es sobre el diseño de una boquilla para impresión 3D. En el agua de lluvia tanque de almacenamiento, predijimos que la altura del agua en el tanque tiene un influencia significativa sobre cómo se comporta el flujo aguas abajo de la puerta del tanque (válvula). Para la impresión 3D, desarrollamos un diseño eficiente con El flujo de chorro enfocado para evitar la oxidación y el calentamiento en la punta del boquilla durante un proceso de fusión. Finalmente, presentamos aqu¿¿ el paralelismo en múltiples GPU y el incrustado sistema de arquitectura Kalray. Casi todas las supercomputadoras de hoy tienen arquitecturas heterogéneas, 1 See the UNESCO Internacional Standard nomenclature for fields of Science and Technologya como CPU+GPU u otros aceleradores, y, por lo tanto, es esencial desarrollar marcos computacionales para aprovecha de ellos. Como lo hemos visto antes, se comienza a desarrollar ese CFD más tarde en la década de 1060 cuando podemos tener poder computacional, por lo tanto, Es esencial utilizar y probar estos aceleradores para los cálculos de CFD. Las GPU tienen una arquitectura diferente en comparación con las CPU tradicionales. Técnicamente, la GPU tiene muchos núcleos en comparación con las CPU que hacen de la GPU una buena opción para el cómputo paralelo. Para múltiples GPU, desarrollamos un cálculo de plantilla, aplicado a simulación de pliegues geológicos. Exploramos la computación de halo y utilizamos Secuencias CUDA para optimizar el tiempo de computación y comunicación. La ganancia de rendimiento resultante fue de 23 % para cuatro GPU con arquitectura Fermi, y la mejora correspondiente obtenida en cuatro Las GPU Kepler fueron de 47 %.

Gehiago jakin...

Advances in Branch-and-Fix methods to solve the Hamiltonian cycle problem in manufacturing optimization

MURUA ETXEBERRIA MAIALEN

Zuzendariak:
GALAR PASCUAL, DIEGO JESUS;
SANTANA HERMIDA, ROBERTO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2022
Laburpena:

Esta tesis parte del problema de la optimización de la ruta de la herramienta donde se contribuye con un sistema de soporte para la toma de decisiones que genera rutas óptimas en la tecnología de Fabricación Aditiva. Esta contribución sirve como punto de partida o inspiración para analizar el problema del ciclo Hamiltoniano (HCP). El HCP consiste en visitar todos los vértices de un grafo dado una única vez o determinar que dicho ciclo no existe. Muchos de los métodos propuestos en la literatura sirven para grafos no dirigidos y los que se enfocan en los grafos dirigidos no han sido implementados ni testeados. Uno de los métodos para resolver el problema es el Branch-and-Fix (BF), un método exacto que utiliza la tranformación del HCP a un problema continuo. El BF es un algoritmo de ramificación que consiste en construir un árbol de decisión donde en cada vértice dos problemas lineales son resueltos. Este método ha sido testeado en grafos de tamaño pequeño y por ello, no se ha estudiado en profundidad las limitaciones que puede presentar. Por ello, en esta tesis se proponen cuatro contribuciones metodológicas relacionadas con el HCP y el BF: 1) mejorar la enficiencia del BF en diferentes aspectos, 2) proponer un método de ramificación global, 3) proponer un método del BF colapsado, 4) extender el HCP a un escenario multi-objetivo y proponer un método para resolverlo.

Gehiago jakin...

Mobility mining for time-dependent urban network modeling

ARREGUI MARTIARENA,HARBIL

Zuzendariak:
ARBELAIZ GALLEGO, OLATZ;
OTAEGUI MADURGA, OIHANA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

Mobility planning, monitoring and analysis in such a complex ecosystem as a city are very challenging. Our contributions are expected to be a small step forward towards a more integrated vision of mobility management. The main hypothesis behind this thesis is that the transportation offer and the mobility demand are greatly coupled, and thus, both need to be thoroughly and consistently represented in a digital manner so as to enable good quality data-driven advanced analysis. Data-driven analytics solutions rely on measurements. However, sensors do only provide a measure of movements that have already occurred (and associated magnitudes, such as vehicles per hour). For a movement to happen there are two main requirements: i) the demand (the need or interest) and ii) the offer (the feasibility and resources). In addition, for good measurement, the sensor needs to be located at an adequate location and be able to collect data at the right moment. All this information needs to be digitalised accordingly in order to apply advanced data analytic methods and take advantage of good digital transportation resource representation. Our main contributions, focused on mobility data mining over urban transportation networks, can be summarised in three groups. The first group consists of a comprehensive description of a digital multimodal transport infrastructure representation from global and local perspectives. The second group is oriented towards matching diverse sensor data onto the transportation network representation, including a quantitative analysis of map-matching algorithms. The final group of contributions covers the prediction of short-term demand based on various measures of urban mobility.

Gehiago jakin...

Optimisation of the user experience across-multi-screen media services.

DOMINGUEZ FANLO ANA

Zuzendariak:
FLOREZ ESNAL, JULIAN;
LAFUENTE ROJO, JULIAN ALBERTO;
ZORRILLA BERASATEGUI, MIKEL JOSEBA
Aipamenak:
Cum Laude
Indistriako Tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

La evolución de los dispositivos conectados a Internet, ha provocado la transformación del sector audiovisual en un ecosistema híbrido en el que el contenido se distribuye a través de múltiples dispositivos. Este nuevo contexto trae experiencias muy flexibles donde el contenido no solo tiene que ser adaptado a cualquier dispositivo, sino que también requiere una adaptación a entornos multi-dispositivo en los que uno o múltiples usuarios utilizan varios dispositivos de manera simultánea. De este modo, la interfaz de usuario se convierte en un factor clave para facilitar la comprensión de la aplicación y proveer una interacción intuitiva a través de las múltiples pantallas. Sin embargo, no existen modelos de adaptación para adaptar tal cantidad de contenido a contextos multi-dispositivo y multi-usuario de una manera dinámica y continua. Para abordar esta necesidad, esta investigación propone una metodología que provee como resultado un modelo de adaptación, implementado y validado, para la interfaz de usuario de servicios multimedia multi-dispositivo, suficientemente general como para adaptarlo facilmente a diferentes casos y escenarios y preparado para cualquier actualización tecnológica.

Gehiago jakin...

Data analysis and machine learning approaches for time series pre- and post- processing pipelines

GIL LERCHUNDI, AMAIA

Zuzendariak:
QUARTULLI , MARCO FRANCESCO;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2022
Laburpena:

En el ámbito industrial, las series temporales suelen generarse de forma continua mediante sensores que captan y supervisan constantemente el funcionamiento de las máquinas en tiempo real. Por ello, es importante que los algoritmos de limpieza admitan un funcionamiento casi en tiempo real. Además, a medida que los datos evolución, la estrategia de limpieza debe cambiar de forma adaptativa e incremental, para evitar tener que empezar el proceso de limpieza desde cero cada vez. El objetivo de esta tesis es comprobar la posibilidad de aplicar flujos de aprendizaje automática a las etapas de preprocesamiento de datos. Para ello, este trabajo propone métodos capaces de seleccionar estrategias óptimas de preprocesamiento que se entrenan utilizando los datos históricos disponibles, minimizando las funciones de perdida empíricas. En concreto, esta tesis estudia los procesos de compresión de series temporales, unión de variables, imputación de observaciones y generación de modelos subrogados. En cada uno de ellos se persigue la selección y combinación óptima de múltiples estrategias. Este enfoque se define en función de las características de los datos y de las propiedades y limitaciones del sistema definidas por el usuario.

Gehiago jakin...

Diagnóstico de fallos y optimización de la planificación en un marco de e-mantenimiento.

GILABERT GARCIA PELAYO, EDUARDO

Zuzendariak:
ARNAIZ IRIGARAY,SATUR AITOR;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

El objetivo principal es demostrar el potencial de mejora que las técnicas y metodologías relacionadas con la analítica prescriptiva, pueden proporcionar en aplicaciones de mantenimiento industrial. Las tecnologías desarrolladas se pueden agrupar en tres ámbitos: - El e-mantenimiento, relacionado fundamentalmente con el desarrollo de plataformas colaborativas e inteligentes que permiten la integración de nuevos sensores, sistemas de comunicaciones, estándares y protocolos, conceptos, métodos de almacenamiento y análisis etc. que entran continuamente en nuestro abanico de posibilidades y nos ofrecen la posibilidad de seguir una tendencia de mejora en la optimización de activos y procesos, y en la interoperabilidad entre sistemas. - Las Redes Bayesianas (Bayesian Networks ¿ BNs) junto con otras metodologías de recogida de información utilizadas en ingeniería nos ofrecen la posibilidad de automatizar la tarea de diagnóstico y predicción de fallos. - La optimización de las estrategias de mantenimiento, mediante simulaciones de fallos y análisis coste-efectividad, que ayudan a la toma de decisiones a la hora de seleccionar una estrategia de mantenimiento adecuada para el activo. Además, mediante el uso de algoritmos de optimización logramos mejorar la planificación del mantenimiento, reduciendo los tiempos y costes para realizar las tareas en un parque de activos.

Gehiago jakin...

Contributions to neuronal architecture search in generative and multitask modeling

GARCIARENA HUALDE, UNAI

Zuzendariak:
LOZANO ALONSO, JOSE ANTONIO;
MENDIBURU ALBERRO, ALEXANDER;
SANTANA HERMIDA, ROBERTO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

Esta tesis se enmarca dentro del ámbito de la inteligencia artificial, más concretamente, en el del aprendizaje automático (AA). Dentro del extenso conjunto de técnicas y algoritmos que conforman el área del AA, el trabajo ha sido enfocado en los modelos denominados redes neuronales profundas (RNP). En la última década, los resultados que han obtenido estos modelos han poblado el estado del arte para varios problemas, entre los cuales destacan los relacionados con el tratamiento de imágenes. El origen de esta repentina aparición de los modelos neuronales entre los más potentes en distintos paradigmas del aprendizaje automático se debe, en gran parte, a la especialización de la estructura neuronal que los define. Un claro ejemplo de este efecto es la aplicación de operaciones convolucionales si el problema está relacionado con imágenes. Tradicionalmente, el diseño de estas estructuras se ha llevado a cabo de forma manual, por expertos tanto en el problema como en los modelos neuronales. En los últimos años, la especialización de las RNP ha venido a costa de altos crecimientos en las complejidades de los modelos, especialmente en redes dedicadas a tratar problemas de procesado de lenguaje natural. En este contexto, el desarrollo automático de estructuras neuronales ha sido propuesta como una alternativa a el malgasto de tiempo de los expertos. Además, el avance conseguido en los componentes físicos que se encargan de procesar estos modelos ha resultado en un aumento del interés en estas técnicas. A pesar de esto, el aumento en la complejidad de los modelos (llegando a 175 mil millones de parámetros en casos extremos), ha hecho que la eficiencia computacional de estas técnicas sea un aspecto a tener en cuenta. En esta tesis, se recogen diferentes técnicas y métodos para analizar procesos de búsqueda estructural pasados con el fin de mejorar futuras búsquedas de características similares.

Gehiago jakin...

On the Study of Crowdsourced Labelled Data and Annotators: Beyond Noisy Labels.

BEÑARAN MUÑOZ IKER

Zuzendariak:
HERNANDEZ GONZALEZ, JERONIMO;
PEREZ MARTINEZ, ARITZ
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

La presente tesis incluye 3 contribuciones al área llamada "learning from crowds", que estudia los métodos de aprendizaje basados en datos etiquetados por medio del "crowdsourcing". Estas etiquetas se caracterizan por tener una incertidumbre asociada debido a que la fiabilidad de las personas anotadoras no está garantizada. En primer lugar, se propone un nuevo método de "label aggregation", llamado "domain aware voting", una extensión del popular y simple método "majority voting" que tiene en cuenta la variable descriptiva, obteniendo resultados mejores especialmente cuando hay una mayor escasez de etiquetas. La segunda contribución consiste en la propuesta de un nuevo marco de etiquetado, "candidate labelling", que permite a las personas anotadoras expresar sus dudas acerca de las etiquetas que otorgan, pudiendo otorgar varias etiquetas a cada instancia. Se proponen 2 métodos de "label aggregation" asociados a este tipo de etiquetado, y se muestra, mediante un marco experimental que auna el etiquetado tradicional y el propuesto, que el "candidate labelling" consigue extraer más información con un mismo número de personas anotadoras. Por último, se desarrolla un modelo de persona anotadora y 2 métodos de aprendizaje adaptados a este nuevo etiquetado, basados en el algoritmo EM, que obtienen mejores resultados en general que los métodos análogos en el marco de etiquetado tradicional.

Gehiago jakin...

Harnessing customizationinWeb Annotation: ASoftwareProduct Line approach

MEDINA CAMACHO, HARITZ

Zuzendariak:
AZANZA SESE, MAIDER;
DIAZ GARCIA, OSCAR
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2022
Laburpena:

La anotación web ayuda a mediar la interacción de lectura y escritura al transmitir información, agregar comentarios e inspirar conversaciones en documentos web. Se utiliza en áreas de Ciencias Sociales y Humanidades, Investigación Periodística, Ciencias Biológicas o Educación, por mencionar algunas. Las actividades de anotación son heterogéneas, donde los usuarios finales (estudiantes, periodistas, conservadores de datos, investigadores, etc.) tienen requisitos muy diferentes para crear, modificar y reutilizar anotaciones. Esto resulta en una gran cantidad de herramientas de anotación web y diferentes formas de representar y almacenar anotaciones web. Para facilitar la reutilización y la interoperabilidad, se han realizado varios intentos durante las últimas décadas para estandarizar las anotaciones web (por ejemplo, Annotea u Open Annotation), lo que ha dado como resultado las recomendaciones de anotaciones del W3C publicadas en 2017. Las recomendaciones del W3C proporcionan un marco para la representación de anotaciones (modelo de datos y vocabulario) y transporte (protocolo). Sin embargo, todavía hay una brecha en cómo se desarrollan los clientes de anotación (herramientas e interfaces de usuario), lo que hace que los desarrolladores vuelvan a re-implementar funcionalidades comunes (es decir, resaltar, comentar, almacenar,¿) para crear su herramienta de anotación personalizada. Esta tesis tiene como objetivo proporcionar una plataforma de reutilización para el desarrollo de herramientas de anotación web para la revisión. Con este fin, hemos desarrollado una línea de productos de software llamada WACline. WACline es una familia de productos de anotación que permite a los desarrolladores crear extensiones de navegador de anotación web personalizadas, lo que facilita la reutilización de los activos principales y su adaptación a su contexto de revisión específico. Se ha creado siguiendo un proceso de acumulación de conocimientos en el que cada producto de anotación aprende de los productos de anotación creados previamente. Finalmente, llegamos a una familia de clientes de anotación que brinda soporte para tres prácticas de revisión: extracción de datos de revisión sistemática de literatura (Highlight&Go), revisión de tareas de estudiantes en educación superior (Mark&Go), y revisión por pares de conferencias y revistas (Review&Go). Para cada uno de los contextos de revisión, se ha llevado a cabo una evaluación con partes interesadas reales para validar las mejoras de eficiencia y eficacia aportadas por las herramientas de anotación personalizadas en su práctica.

Gehiago jakin...

Interconnected Services for Time-Series Data Management in Smart Manufacturing Scenarios.

VILLALOBOS RODRIGUEZ, KEVIN

Zuzendariak:
BLANCO ARBE, JOSE MIGUEL;
ILLARRAMENDI ECHAVE, MARIA ARANZAZU
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

The rise of Smart Manufacturing, together with the strategic initiatives carried out worldwide, have promoted its adoption among manufacturers who are increasingly interested in boosting data-driven applications for different purposes, such as product quality control, predictive maintenance of equipment, etc. However, the adoption of these approaches faces diverse technological challenges with regard to the data-related technologies supporting the manufacturing data life-cycle. The main contributions of this dissertation focus on two specific challenges related to the early stages of the manufacturing data life-cycle: an optimized storage of the massive amounts of data captured during the production processes and an efficient pre-processing of them. The first contribution consists in the design and development of a system that facilitates the pre-processing task of the captured time-series data through an automatized approach that helps in the selection of the most adequate pre-processing techniques to apply to each data type. The second contribution is the design and development of a three-level hierarchical architecture for time-series data storage on cloud environments that helps to manage and reduce the required data storage resources (and consequently its associated costs). Moreover, with regard to the later stages, a third contribution is proposed, that leverages advanced data analytics to build an alarm prediction system that allows to conduct a predictive maintenance of equipment by anticipating the activation of different types of alarms that can be produced on a real Smart Manufacturing scenario.

Gehiago jakin...

Méthodes de sélection de variables pour l¿anlyse de données provenant de sources différentes et présentant une structure de groupe de variables.

BROC , CAMILO LUCIEN

Zuzendariak:
CALVO MOLINOS, BORJA
Aipamenak:
Nazioarteko tesia
Tesia Tutorekidetzan
Kalifikazioa:
Oso ongi
Urtea:
2019
Laburpena:

During the last decades, the amount of available genetic data on populations has grown drastically. From one side, a refinement of chemical technologies have made possible the extraction of the human genome of individuals at an accessible cost. From the other side, consortia of institutions and laboratories around the world have permitted the collection of data on a variety of individuals and population. This amount of data raised hope on our ability to understand the deepest mechanisms involved in the functioning of our cells. Notably, genetic epidemiology is a field that studies the relation between the genetic features and the onset of a disease. Specific statistical methods have been necessary for those analyses, especially due to the dimensions of available data: in genetics, information is contained in a high number of variables compared to the number of observations. In this dissertation, two contributions are presented. The first project called PIGE (Pathway Interaction Gene Environment) deals with gene-environment interaction assessments. The second one aims at developing variable selection methods for data which has group structures in both the variables and the observations.

Gehiago jakin...

Application of machine learning techniques to weather forecasting

ROZAS LARRAONDO, PABLO

Zuzendariak:
INZA CANO, IÑAKI;
LOZANO ALONSO, JOSE ANTONIO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

El pronóstico del tiempo es, incluso hoy en día, una actividad realizada principalmente por humanos. Si bien las simulaciones por computadora desempeñan un papel importante en el modelado del estado y la evolución de la atmósfera, faltan metodologías para automatizar la interpretación de la información generada por estos modelos. Esta tesis doctoral explora el uso de metodologías de aprendizaje automático para resolver problemas específicos en meteorología y haciendo especial énfasis en la exploración de metodologías para mejorar la precisión de los modelos numéricos de predicción del tiempo. El trabajo presentado en este manuscrito comprende dos enfoques diferentes a la aplicación de algoritmos de aprendizaje automático a problemas de predicción meteorológica. En la primera parte, las metodologías clásicas, como la regresión multivariada no paramétrica y los árboles binarios, se utilizan para realizar regresiones en datos meteorológicos. Esta primera parte, está centrada particularmente en el pronóstico del viento, cuya naturaleza circular crea desafíos interesantes para los algoritmos clásicos de aprendizaje automático. La segunda parte de esta tesis explora el análisis de los datos meteorológicos como un problema de predicción estructurado genérico utilizando redes neuronales profundas. Las redes neuronales, como las redes convolucionales y recurrentes, proporcionan un método para capturar la estructura espacial y temporal inherente en los modelos de predicción del tiempo. Esta parte explora el potencial de las redes neuronales convolucionales profundas para resolver problemas difíciles en meteorología, como el modelado de la precipitación a partir de campos de modelos numéricos básicos. La investigación que sustenta esta tesis sirve como un ejemplo de cómo la colaboración entre las comunidades de aprendizaje automático y meteorología puede resultar mutuamente beneficiosa y conducir a avances en ambas disciplinas. Los modelos de pronóstico del tiempo y los datos de observación representan ejemplos únicos de conjuntos de datos grandes (petabytes), estructurados y de alta calidad, que la comunidad de aprendizaje automático exige para desarrollar la próxima generación de algoritmos escalables.

Gehiago jakin...

Contributions to automatic learning of kernel functions

ROMAN TXOPITEA, IBAI

Zuzendariak:
MENDIBURU ALBERRO, ALEXANDER;
SANTANA HERMIDA, ROBERTO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

Muchos algoritmos de aprendizaje automático se basan en funciones de kernel para resolver las tareas propuestas. Entre estos algoritmos podemos encontrar métodos de kernel, como las Máquinas de vectores de soporte (SVMs), o métodos de inferencia bayesianos, como los Procesos de Gauss (GPs). Sin embargo, la validez de estos algoritmos para resolver problemas depende en gran medida de la función del kernel, y no hay ninguna función del kernel que sea óptima para todos los dominios de aplicación. La elección del kernel requiere conocimiento del algoritmo y del dominio de aplicación y hay un gran interés en automatizar este proceso. En esta tesis estudiamos el uso de la programación genética para aprender kernels tanto para SVMs como para GPs. En primer lugar, describimos el análisis realizado en el campo de las SVM, donde hemos estudiado las diferentes interacciones entre los componentes de las SVM durante la evolución de los kernels, y proporcionamos algunas pautas para mejorar el proceso de aprendizaje del kernel. A continuación, proponemos un método basado en expresiones matemáticas básicas para aprender kernels para GPs a través de la programación genética, y probamos la validez de este método en varias aplicaciones, como la predicción de series temporales o tareas de procesamiento de lenguaje natural.

Gehiago jakin...

Application-driven visual computing towards industry 4.0

DIEZ MCCREADY, HELEN VICTORIA

Zuzendariak:
GARCIA ALONSO MONTOYA, ALEJANDRO;
POSADA VELAZQUEZ JORGE LEON
Kalifikazioa:
Bikain
Urtea:
2018
Laburpena:

La Tesis recoge contribuciones en tres campos: ¿ Agentes Virtuales Interactivos: autónomos, modulares, escalables, ubicuos y atractivos para el usuario. Estos IVA pueden interactuar con los usuarios de manera natural. ¿ Entornos de RV/RA Inmersivos: RV en la planificación de la producción, el diseño de producto, la simulación de procesos, pruebas y verificación. El Operario Virtual muestra cómo la RV y los Co-bots pueden trabajar en un entorno seguro. En el Operario Aumentado la RA muestra información relevante al trabajador de una manera no intrusiva. ¿ Gestión Interactiva de Modelos 3D: gestión online y visualización de modelos CAD multimedia, mediante conversión automática de modelos CAD a la Web. La tecnología Web3D permite la visualización e interacción de estos modelos en dispositivos móviles de baja potencia. Además, estas contribuciones han permitido analizar los desafíos presentados por Industry 4.0. La tesis ha contribuido a proporcionar una prueba de concepto para algunos de esos desafíos: en factores humanos, simulación, visualización e integración de modelos.

Gehiago jakin...

Supporting the grow-and-prune model for evolving software product lines

MONTALVILLO MENDIZABAL, LETICIA

Zuzendariak:
DIAZ GARCIA, OSCAR
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

Software Product Lines (SPLs) aim at supporting the development of a whole family of software products through a systematic reuse of shared assets. To this end, SPL development is separated into two interrelated processes: (1) domain engineering (DE), where the scope and variability of the system is defined and reusable core-assets are developed; and (2) application engineering (AE), where products are derived by selecting core assets and resolving variability. Evolution in SPLs is considered to be more challenging than in traditional systems, as both core-assets and products need to co-evolve. The so-called grow-and-prune model has proven great flexibility to incrementally evolve an SPL by letting the products grow, and later prune the product functionalities deemed useful by refactoring and merging them back to the reusable SPL core-asset base. This Thesis aims at supporting the grow-and-prune model as for initiating and enacting the pruning. Initiating the pruning requires SPL engineers to conduct customization analysis, i.e. analyzing how products have changed the core-assets. Customization analysis aims at identifying interesting product customizations to be ported to the core-asset base. However, existing tools do not fulfill engineers needs to conduct this practice. To address this issue, this Thesis elaborates on the SPL engineers' needs when conducting customization analysis, and proposes a data-warehouse approach to help SPL engineers on the analysis. Once the interesting customizations have been identified, the pruning needs to be enacted. This means that product code needs to be ported to the core-asset realm, while products are upgraded with newer functionalities and bug-fixes available in newer core-asset releases. Herein, synchronizing both parties through sync paths is required. However, the state of-the-art tools are not tailored to SPL sync paths, and this hinders synchronizing core-assets and products. To address this issue, this Thesis proposes to leverage existing Version Control Systems (i.e. git/Github) to provide sync operations as first-class constructs.

Gehiago jakin...

Towards a framework for socially interactive robots

RODRIGUEZ RODRIGUEZ, IGOR

Zuzendariak:
LAZKANO ORTEGA, ELENA;
RUIZ VAZQUEZ, MARIA CONSUELO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

En las últimas décadas, la investigación en el campo de la robótica social ha crecido considerablemente. El desarrollo de diferentes tipos de robots y sus roles dentro de la sociedad se están expandiendo poco a poco. Los robots dotados de habilidades sociales pretenden ser utilizados para diferentes aplicaciones; por ejemplo, como profesores interactivos y asistentes educativos, para apoyar el manejo de la diabetes en niños, para ayudar a personas mayores con necesidades especiales, como actores interactivos en el teatro o incluso como asistentes en hoteles y centros comerciales. El equipo de investigación RSAIT ha estado trabajando en varias áreas de la robótica, en particular, en arquitecturas de control, exploración y navegación de robots, aprendizaje automático y visión por computador. El trabajo presentado en este trabajo de investigación tiene como objetivo añadir una nueva capa al desarrollo anterior, la capa de interacción humano-robot que se centra en las capacidades sociales que un robot debe mostrar al interactuar con personas, como expresar y percibir emociones, mostrar un alto nivel de diálogo, aprender modelos de otros agentes, establecer y mantener relaciones sociales, usar medios naturales de comunicación (mirada, gestos, etc.), mostrar personalidad y carácter distintivos y aprender competencias sociales. En esta tesis doctoral, tratamos de aportar nuestro grano de arena a las preguntas básicas que surgen cuando pensamos en robots sociales: (1) ¿Cómo nos comunicamos (u operamos) los humanos con los robots sociales?; y (2) ¿Cómo actúan los robots sociales con nosotros? En esa línea, el trabajo se ha desarrollado en dos fases: en la primera, nos hemos centrado en explorar desde un punto de vista práctico varias formas que los humanos utilizan para comunicarse con los robots de una manera natural. En la segunda además, hemos investigado cómo los robots sociales deben actuar con el usuario. Con respecto a la primera fase, hemos desarrollado tres interfaces de usuario naturales que pretenden hacer que la interacción con los robots sociales sea más natural. Para probar tales interfaces se han desarrollado dos aplicaciones de diferente uso: robots guía y un sistema de control de robot humanoides con fines de entretenimiento. Trabajar en esas aplicaciones nos ha permitido dotar a nuestros robots con algunas habilidades básicas, como la navegación, la comunicación entre robots y el reconocimiento de voz y las capacidades de comprensión. Por otro lado, en la segunda fase nos hemos centrado en la identificación y el desarrollo de los módulos básicos de comportamiento que este tipo de robots necesitan para ser socialmente creíbles y confiables mientras actúan como agentes sociales. Se ha desarrollado una arquitectura (framework) para robots socialmente interactivos que permite a los robots expresar diferentes tipos de emociones y mostrar un lenguaje corporal natural similar al humano según la tarea a realizar y las condiciones ambientales. La validación de los diferentes estados de desarrollo de nuestros robots sociales se ha realizado mediante representaciones públicas. La exposición de nuestros robots al público en esas actuaciones se ha convertido en una herramienta esencial para medir cualitativamente la aceptación social de los prototipos que estamos desarrollando. De la misma manera que los robots necesitan un cuerpo físico para interactuar con el entorno y convertirse en inteligentes, los robots sociales necesitan participar socialmente en tareas reales para las que han sido desarrollados, para así poder mejorar su sociabilidad.

Gehiago jakin...

Traductor de consultas SPARQL, formuladas sobre fuentes de datos incompletamente alineadas, que aporta una estimación de la calidad de la traducción.

TORRE BASTIDA,ANA ISABEL

Zuzendariak:
BERMUDEZ DE ANDRES, JESUS;
ILLARRAMENDI ECHAVE, MARIA ARANZAZU
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

EXTRACTO/RESUMEN Hoy en día existe en la Web un número cada vez mayor de conjuntos de datos enlazados de distinta procedencia, referentes a diferentes dominios y que se encuentran accesibles al público en general para ser libremente explotados. Esta tesis doctoral centra su estudio en el ámbito del procesamiento de consultas sobre dicha nube de conjuntos de datos enlazados, abordando las dificultades en su acceso por aspectos relacionados con su heterogeneidad. La principal contribución reside en el planteamiento de una nueva propuesta que permite traducir la consulta realizada sobre un conjunto de datos enlazado a otro sin que estos se encuentren completamente alineados y sin que el usuario tenga que conocer las características técnicas inherentes a cada fuente de datos. Esta propuesta se materializa en un traductor que transforma una consulta SPARQL, adecuadamente expresada en términos de los vocabularios utilizados en un conjunto de datos de origen, en otra consulta SPARQL adecuadamente expresada para un conjunto de datos objetivo que involucra diferentes vocabularios. La traducción se basa en alineaciones existentes entre términos en diferentes conjuntos de datos. Cuando el traductor no puede producir una consulta semánticamente equivalente debido a la escasez de alineaciones de términos, el sistema produce una aproximación semántica de la consulta para evitar devolver una respuesta vacía al usuario. La traducción a través de los distintos conjuntos de datos se logra gracias a la aplicación de un variado grupo de reglas de transformación. En esta tesis se han definido cinco tipos de reglas, dependiendo de la motivación de la transformación, que son: equivalencia, jerarquía, basadas en las respuestas de la consulta, basadas en el perfil de los recursos que aparecen en la consulta y basadas en las características asociadas a los recursos que aparecen en la consulta. Además, al no garantizar el traductor la preservación semántica debido a la heterogeneidad de los vocabularios se vuelve crucial el obtener una estimación de la calidad de la traducción producida. Por ello otra de las contribuciones relevantes de la tesis consiste en la definición del modo en que informar al usuario sobre la calidad de la consulta traducida, a través de dos indicadores: un factor de similaridad que se basa en el proceso de traducción en sí, y un indicador de calidad de los resultados, estimado gracias a un modelo predictivo. Finalmente, esta tesis aporta una demostración de la viabilidad estableciendo un marco de evaluación sobre el que se ha validado un prototipo del sistema.

Gehiago jakin...

Personalizing the web: A tool for empowering end-users to customize the web through browser-side modification

ALDALUR CEBERIO, IÑIGO

Zuzendariak:
DIAZ GARCIA, OSCAR
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2017
Laburpena:

Web applications Web applications delegate to the browser the final rendering of their pages. This permits browser-based transcoding (a.k.a. Web Augmentation) that can be ultimately singularized for each browser installation. This creates an opportunity for Web consumers to customize their Web experiences. This vision requires provisioning adequate tooling that makes Web Augmentation affordable to laymen. We consider this a special class of End-User Development, integrating Web Augmentation paradigms. The dominant paradigm in End-User Development is scripting languages through visual languages. This thesis advocates for a Google Chrome browser extension for Web Augmentation. This is carried out through WebMakeup, a visual DSL programming tool for end-users to customize their own websites. WebMakeup removes, moves and adds web nodes from different web pages in order to avoid tab switching, scrolling, the number of clicks and cutting and pasting. Moreover, Web Augmentation extensions has difficulties in finding web elements after a website updating. As a consequence, browser extensions give up working and users might stop using these extensions. This is why two different locators have been implemented with the aim of improving web locator robustness.

Gehiago jakin...

Contributions to comprehensible classification

IBARGUREN ARRIETA, IGOR

Zuzendariak:
MUGUERZA RIVERO, JAVIER FRANCISCO;
PEREZ DE LA FUENTE, JESUS MARIA
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

La tesis doctoral descrita en esta memoria ha contribuido a la mejora de dos tipos de algoritmos de clasificación comprensibles: algoritmos de \'arboles de decisión consolidados y algoritmos de inducción de reglas tipo PART. En cuanto a las contribuciones a la consolidación de algoritmos de árboles de decisión, se ha propuesto una nueva estrategia de remuestreo que ajusta el número de submuestras para permitir cambiar la distribución de clases en las submuestras sin perder información. Utilizando esta estrategia, la versión consolidada de C4.5 (CTC) obtiene mejores resultados que un amplio conjunto de algoritmos comprensibles basados en algoritmos genéticos y clásicos. Tres nuevos algoritmos han sido consolidados: una variante de CHAID (CHAID*) y las versiones Probability Estimation Tree de C4.5 y CHAID* (C4.4 y CHAIC). Todos los algoritmos consolidados obtienen mejores resultados que sus algoritmos de \'arboles de decisión base, con tres algoritmos consolidados clasificándose entre los cuatro mejores en una comparativa. Finalmente, se ha analizado el efecto de la poda en algoritmos simples y consolidados de \'arboles de decisión, y se ha concluido que la estrategia de poda propuesta en esta tesis es la que obtiene mejores resultados. En cuanto a las contribuciones a algoritmos tipo PART de inducción de reglas, una primera propuesta cambia varios aspectos de como PART genera \'arboles parciales y extrae reglas de estos, lo cual resulta en clasificadores con mejor capacidad de generalizar y menor complejidad estructural comparando con los generados por PART. Una segunda propuesta utiliza \'arboles completamente desarrollados, en vez de parcialmente desarrollados, y genera conjuntos de reglas que obtienen aún mejores resultados de clasificación y una complejidad estructural menor. Estas dos nuevas propuestas y el algoritmo PART original han sido complementadas con variantes basadas en CHAID* para observar si estos beneficios pueden ser trasladados a otros algoritmos de \'arboles de decisión y se ha observado, de hecho, que los algoritmos tipo PART basados en CHAID* también crean clasificadores más simples y con mejor capacidad de clasificar que CHAID*.

Gehiago jakin...

A context -and template- based data compression approach to improve resource-constrained IoT systems interoperability.

BERZOSA MACHO, JORGE

Zuzendariak:
CORTIÑAS RODRIGUEZ, ROBERTO;
GARDEAZABAL MONTON, PEDRO JOSE LUIS
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

El objetivo del Internet de las Cosas (the Internet of Things, IoT) es el de interconectar todo tipo de cosas, desde dispositivos simples, como una bombilla o un termostato, a elementos más complejos y abstractos como una máquina o una casa. Estos dispositivos o elementos varían enormemente entre sí, especialmente en las capacidades que poseen y el tipo de tecnologías que utilizan. Esta heterogeneidad produce una gran complejidad en los procesos integración en lo que a la interoperabilidad se refiere. Un enfoque común para abordar la interoperabilidad a nivel de representación de datos en sistemas IoT es el de estructurar los datos siguiendo un modelo de datos estándar, así como formatos de datos basados en texto (e.g., XML). Sin embargo, el tipo de dispositivos que se utiliza normalmente en sistemas IoT tiene capacidades limitadas, así como recursos de procesamiento y de comunicación escasos. Debido a estas limitaciones no es posible integrar formatos de datos basados en texto de manera sencilla y e1ciente en dispositivos y redes con recursos restringidos. En esta Tesis, presentamos una novedosa solución de compresión de datos para formatos de datos basados en texto, que está especialmente diseñada teniendo en cuenta las limitaciones de dispositivos y redes con recursos restringidos. Denominamos a esta solución Context- and Template-based Compression (CTC). CTC mejora la interoperabilidad a nivel de los datos de los sistemas IoT a la vez que requiere muy pocos recursos en cuanto a ancho de banda de las comunicaciones, tamaño de memoria y potencia de procesamiento.

Gehiago jakin...

Assisted Interaction for Improving Web Accessibility: An Approach Driven and Tested by Users with Disabilities

PEREZ LOPEZ, JUAN EDUARDO

Zuzendariak:
ABASCAL GONZALEZ, JULIO;
ARRUE RECONDO, MYRIAM
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

Un porcentaje cada vez mayor de la población mundial depende de la Web para trabajar, socializar, o para informarse entre otras muchas actividades. Los beneficios de la Web son todavía más cruciales para las personas con discapacidades ya que les permite realizar un sinfín de tareas que en el mundo físico les están restringidas debido distintas barreras de accesibilidad. A pesar de sus ventajas, la mayoría de páginas web suelen ignoran las necesidades especiales de las personas con discapacidad, e incluyen un diseño único para todos los usuarios. Existen diversos métodos para combatir este problema, como por ejemplo los sistemas de ¿transcoding¿, que transforman automáticamente páginas web inaccesibles en accesibles. Para mejorar la accesibilidad web a grupos específicos de personas, estos métodos requieren información sobre las técnicas de adaptación más adecuadas que deben aplicarse. En esta tesis se han realizado una serie de estudios sobre la idoneidad de diversas técnicas de adaptación para mejorar la navegación web para dos grupos diferentes de personas con discapacidad: personas con movilidad reducida en miembros superiores y personas con baja visión. Basado en revisiones bibliográficas y estudios observacionales, se han desarrollado diferentes adaptaciones de interfaces web y técnicas alternativas de interacción, que posteriormente han sido evaluadas a lo largo de varios estudios con usuarios con necesidades especiales. Mediante análisis cualitativos y cuantitativos del rendimiento y la satisfacción de los participantes, se han evaluado diversas adaptaciones de interfaz y métodos alternativos de interacción. Los resultados han demostrado que las técnicas probadas mejoran el acceso a la Web y que los beneficios varían según la tecnología asistiva usada para acceder al ordenador.

Gehiago jakin...

Linked data wrapper curation: A platform perspective

AZPEITIA LAKUNTZA, IKER AITOR

Zuzendariak:
DIAZ GARCIA, OSCAR;
ITURRIOZ SANCHEZ, JUAN IGNACIO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2017
Laburpena:

Linked Data Wrappers (LDWs) turn Web APIs into RDF end-points, leveraging the LOD cloud with current data. This potential is frequently undervalued, regarding LDWs as mere by-products of larger endeavors, e.g. developing mashup applications. However, LDWs are mainly data-driven, not contaminated by application semantics, hence with an important potential for reuse. If LDWs could be decoupled from their breakout projects, this would increase the chances of LDWs becoming truly RDF end-points. But this vision is still under threat by LDW fragility upon API upgrades, and the risk of unmaintained LDWs. LDW curation might help. Similar to dataset curation, LDW curation aims to clean up datasets but, in this case, the dataset is implicitly described by the LDW definition, and ¿stains¿ are not limited to those related with the dataset quality but also include those related to the underlying API. This requires the existence of LDW Platforms that leverage existing code repositories with additional functionalities that cater for LDW definition, deployment and curation. This dissertation contributes to this vision through: (1) identifying a set of requirements for LDW Platforms; (2) instantiating these requirements in SYQL, a platform built upon Yahoo's YQL; (3) evaluating SYQL through a fully-developed proof of concept; and (4), validating the extent to which this approach facilitates LDW curation.

Gehiago jakin...

Paradigmas de aprendizaje automático aplicados a la teledetección: imágenes RGB e imágenes multiespectrales.

CALVARIO SANCHEZ, GABRIELA

Zuzendariak:
ALARCON MARTINEZ, TERESA EFIGENIA;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

La tendencia actual en el uso de sensores para recopilar datos georreferenciados con una alta redundancia, se basa en la aplicación de métodos robustos y automatizados para extraer información geoespacial. Los resultados derivan en un cambio de paradigmas en tecnologías geoespaciales, que hasta este momento no han generado un límite en su aplicación. Sumado a ello, los avances en tecnologías sobre ordenadores, aprendizaje máquina, detección de patrones y visión computacional muestran una clara tendencia a la generación de estudios avanzados sobre imágenes, lo cual impulsa a la investigación de la información geoespacial con un progreso exponencial. El presente trabajo realiza un recorrido sobre paradigmas de aprendizaje automático aplicados en imágenes aéreas (RGB) y satelitales (multiespectrales), metodologías que han sido aplicadas en campo con interesantes resultados.

Gehiago jakin...

Distributed eventual leader election in the crash-recovery and general omission failure models.

FERNANDEZ CAMPUSANO, CHRISTIAN ROBERT

Zuzendariak:
CORTIÑAS RODRIGUEZ, ROBERTO;
LARREA ALAVA, MIKEL
Kalifikazioa:
Bikain
Urtea:
2020
Laburpena:

Distributed applications are present in many aspects of everyday life. Banking, healthcare or transportation are examples of such applications. These applications are built on top of distributed systems. Roughly speaking, a distributed system is composed of a set of processes that collaborate among them to achieve a common goal. When building such systems, designers have to cope with several issues, such as different synchrony assumptions and failure occurrence. Distributed systems must ensure that the delivered service is trustworthy. Agreement problems compose a fundamental class of problems in distributed systems. All agreement problems follow the same pattern: all processes must agree on some common decision. Most of the agreement problems can be considered as a particular instance of the Consensus problem. Hence, they can be solved by reduction to consensus. However, a fundamental impossibility result, namely (FLP), states that in an asynchronous distributed system it is impossible to achieve consensus deterministically when at least one process may fail. A way to circumvent this obstacle is by using unreliable failure detectors. A failure detector allows to encapsulate synchrony assumptions of the system, providing (possibly incorrect) information about process failures. A particular failure detector, called Omega, has been shown to be the weakest failure detector for solving consensus with a majority of correct processes. Informally, Omega lies on providing an eventual leader election mechanism.

Gehiago jakin...

Promoting End-User Involvement in Web-based tasks: a Model-Driven Engineering Approach to Form-filling and User-Acceptance Testing

OTADUY IGARTUA, ITZIAR

Zuzendariak:
DIAZ GARCIA, OSCAR
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

Many applications which formerly were designed for the desktop have gradually made a transition to the Web. Accordingly, an increasing number of tasks can now be conducted through the Web. As a result, opportunities arise to achieve a higher level of automation that the one being previously possible with proprietary, OS-anchored desktop applications. This resulted in an emerging interest in empowering users to check, adapt and customize the way they navigate and make use of these applications. Web automation, Web augmentation, or Web mashups are performant approaches that pursuit this aim. This work explores the use of scripting for two tasks, namely, Web-form filling and Webapplication User-Acceptance Testing (UAT). In both cases, the challenge rests on abstracting from scripting code to higher models that permit the notion of scripting to be hidden into more-affordable representations. Accordingly, this work abstracts scripts into platformindependent models. For Web-form filling, we tackle the problem of repetitive form-filling from external sources. The solution is realized through WebFeeder, a plugin for iMacros that introduces autofilling-script models as first-class artifacts in iMacros. As for UAT, we tackle the issue of the need for the regular physical-presence of stakeholders for UAT in Agile methodologies. In this case, we resort to mind-maps as the model representation. These ideas are fleshed out in TestMind, an editor for FitNesse that permits to capture UAT sessions as test maps. Summing it up, the bottom line is that WebFeeder and TestMind showcase the benefits that Model-Driven Engineering can bring to Web Automation. By moving away from code to high-level models, Model-Driven Engineering reduces the entry barrier for the participation of end-users.

Gehiago jakin...

Certificates for decision problems in temporal logic using context-based tableaux and sequent calculi.

ABUIN YEPES ALEX

Zuzendariak:
HERMO HUGUET, MONTSERRAT;
LUCIO CARRASCO, FRANCISCA;
PARRA MOLINA, JORGE
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

Esta tesis trata de resolver problemas de Satisfactibilidad y Model Checking, aportando certificados del resultado. En ella, se trabaja con tres lógicas temporales: Propositional Linear Temporal Logic (PLTL), Computation Tree Logic (CTL) y Extended Computation Tree Logic (ECTL). Primero se presenta el trabajo realizado sobre Certified Satisfiability. Ahí se muestra una adaptación del ya existente método dual de tableaux y secuentes basados en contexto para satisfactibilidad de fórmulas PLTL en Negation Normal Form. Se ha trabajado la generación de certificados en el caso en el que las fórmulas son insactisfactibles. Por último, se aporta una prueba de soundness del método. Segundo, se ha optimizado con Sat Solvers el método de Certified Satisfiability para el contexto de Certified Model Checking. Se aportan varios ejemplos de sistemas y propiedades. Tercero, se ha creado un nuevo método dual de tableaux y secuentes basados en contexto para realizar Certified Satisfiability para fórmulas CTL y ECTL. Se presenta el método y un algoritmo que genera tanto el modelo en el caso de que las fórmulas son satisfactibles como la prueba en el caso en que no lo sean. Por último, se presenta una implementación del método para CTL y una experimentación comparando el método propuesto con otro método de similares características.

Gehiago jakin...

Contributions to autonomous robust navigation of mobile robots in industrial applications

LLUVIA HERMOSILLA IKER

Zuzendariak:
ANSUATEGUI COBO, ANDER;
LAZKANO ORTEGA, ELENA
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

Un aspecto en el que las plataformas móviles actuales se quedan atrás en comparación con el punto que se ha alcanzado ya en la industria es la precisión. La cuarta revolución industrial trajo consigo la implantación de maquinaria en la mayor parte de procesos industriales, y una fortaleza de estos es su repetitividad. Los robots móviles autónomos, que son los que ofrecen una mayor flexibilidad, carecen de esta capacidad, principalmente debido al ruido inherente a las lecturas ofrecidas por los sensores y al dinamismo existente en la mayoría de entornos. Por este motivo, gran parte de este trabajo se centra en cuantificar el error cometido por los principales métodos de mapeado y localización de robots móviles, ofreciendo distintas alternativas para la mejora del posicionamiento. Asimismo, las principales fuentes de información con las que los robots móviles son capaces de realizar las funciones descritas son los sensores exteroceptivos, los cuales miden el entorno y no tanto el estado del propio robot. Por esta misma razón, algunos métodos son muy dependientes del escenario en el que se han desarrollado, y no obtienen los mismos resultados cuando este varía. La mayoría de plataformas móviles generan un mapa que representa el entorno que les rodea, y fundamentan en este muchos de sus cálculos para realizar acciones como navegar. Dicha generación es un proceso que requiere de intervención humana en la mayoría de casos y que tiene una gran repercusión en el posterior funcionamiento del robot. En la última parte del presente trabajo, se propone un método que pretende optimizar este paso para así generar un modelo más rico del entorno sin requerir de tiempo adicional para ello.

Gehiago jakin...

Robust Laser-Based Optical Measurement in Industrial Harsh Environments.

ALONSO NIETO, MARCOS

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2022
Laburpena:

This thesis reports on the design and experimental assessment of reliable dimensional control using laser based optical devices. Modeling and calibration of such systems, as well as the filtering of the delivered data, has been one of the primary motivations. In particular, modern AI-based algorithms such as Deep Learning and Machine Learning have made these processes faster and easier. Two scenarios were chosen to validate experimentally this work. The former consists of an in-line inspection where complex warm forged revolution parts for automotive propulsion systems are measured. The latter computes the flatness and the surface quality of metal sheets produced by a cut to length production line, where the entire process of unwinding, fattening, cutting, and stacking metal sheets takes place.

Gehiago jakin...

Data-centric Design and Training of Deep Neural Networks with Multiple Data Modalities for Vision-based Perception Systems

ARANJUELO ANSA NEREA

Zuzendariak:
ARGANDA CARRERAS, IGNACIO;
UNZUETA IRURTIA, LUIS
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

Los avances en visi¿on artificial y aprendizaje autom¿atico han revolucionado la capacidad de construir sistemas que procesen e interpreten datos digitales, permiti ¿endoles imitar la percepci¿on humana y abriendo el camino a un amplio rango de aplicaciones. En los ¿ultimos a¿nos, ambas disciplinas han logrado avances significativos, impulsadas por los progresos en las t¿ecnicas de aprendizaje profundo (deep learning). El aprendizaje profundo es una disciplina que utiliza redes neuronales profundas (DNNs, por sus siglas en ingl¿es) para ense¿nar a las m¿aquinas a reconocer patrones y hacer predicciones basadas en datos. Los sistemas de percepci¿on basados en el aprendizaje profundo son cada vez m¿as frecuentes en diversos campos, donde humanos y m¿aquinas colaboran para combinar sus fortalezas. Estos campos incluyen la automoci¿on, la industria o la medicina, donde mejorar la seguridad, apoyar el diagn¿ostico y automatizar tareas repetitivas son algunos de los objetivos perseguidos. Sin embargo, los datos son uno de los factores clave detr¿as del ¿exito de los algoritmos de aprendizaje profundo. La dependencia de datos limita fuertemente la creaci¿on y el ¿exito de nuevas DNN. La disponibilidad de datos de calidad para resolver un problema espec¿¿fico es esencial pero dif¿¿cil de obtener, incluso impracticable, en la mayor¿¿a de los desarrollos. La inteligencia artificial centrada en datos enfatiza la importancia de usar datos de alta calidad que transmitan de manera efectiva lo que un modelo debe aprender. Motivada por los desaf¿¿os y la necesidad de los datos, esta tesis formula y valida cinco hip¿otesis sobre la adquisici¿on y el impacto de los datos en el dise¿no y entrenamiento de las DNNs. Espec¿¿ficamente, investigamos y proponemos diferentes metodolog¿¿as para obtener datos adecuados para entrenar DNNs en problemas con acceso limitado a fuentes de datos de gran escala. Exploramos dos posibles soluciones para la obtenci¿on de datos de entrenamiento, basadas en la generaci¿on de datos sint¿eticos. En primer lugar, investigamos la generaci¿on de datos sint¿eticos utilizando gr¿aficos 3D y el impacto de diferentes opciones de dise¿no en la precisi¿on de los DNN obtenidos. Adem¿as, proponemos una metodolog¿¿a para automatizar 1 el proceso de generaci¿on de datos y producir datos anotados variados, mediante la replicaci¿on de un entorno 3D personalizado a partir de un archivo de configuraci ¿on de entrada. En segundo lugar, proponemos una red neuronal generativa (GAN) que genera im¿agenes anotadas utilizando conjuntos de datos anotados limitados y datos sin anotaciones capturados en entornos no controlados. Por lo general, el primer conjunto de datos suele tener anotaciones precisas pero carecen de realismo y variabilidad, lo que compensamos con los datos de entornos no controlados. Analizamos la idoneidad de los datos generados con nuestro m¿etodo para el entrenamiento de DNNs. Esta tesis tambi¿en presenta un dise¿no de DNNs orientado a datos, ya que los datos pueden presentar propiedades muy diferentes dependiendo de su fuente. Diferenciamos las fuentes seg¿un la modalidad de sensor utilizada para obtener los datos (p. ej., c¿amara, LiDAR) o el dominio de generaci¿on de datos (p. ej., real, sint¿etico). Por un lado, redise¿namos una arquitectura DNN orientada a im¿agenes para detecci¿on de objetos en nubes de puntos del sensor LiDAR y, opcionalmente, incorporar informaci¿on de im¿agenes RGB. Por otro lado, adaptamos una DNN para aprender de im¿agenes reales y sint¿eticas mientras minimizamos la brecha de dominio que ambos dominios presentan. Hemos validado nuestras hip¿otesis formuladas en varios problemas de visi¿on artificial no resueltos, que son cr¿¿ticos para numerosos sistemas basados en visi¿on del mundo real. Nuestros hallazgos demuestran que los datos sint¿eticos generados utilizando modelos y entornos 3D son adecuados para el entrenamiento de DNNs. Sin embargo, tambi¿en destacamos que las elecciones de dise¿no durante el proceso de generaci¿on, como la iluminaci¿on y la distorsi¿on de la c¿amara, afectan significativamente la precisi¿on del DNN final. Adem¿as, mostramos que un entorno de simulaci¿on 3D puede ayudar a dise¿nar mejores configuraciones de sensores para una tarea objetivo. Adicionalmente, demostramos que las GAN ofrecen un medio alternativo para generar datos de entrenamiento mediante la explotaci¿on de datos existentes, etiquetados y no etiquetados, para generar nuevas muestras que sean adecuadas para el entrenamiento de DNNs, sin necesidad de un entorno de simulaci¿on. Finalmente, mostramos que adaptar el dise¿no y entrenamiento de DNNs a la modalidad y fuente de datos puede aumentar la precisi¿on del modelo. M¿as espec ¿¿ficamente, demostramos que la modificaci¿on de una arquitectura predefinida dise¿nada para im¿agenes para adaptarse a las peculiaridades de las nubes de puntos da como resultado un rendimiento de vanguardia en la detecci¿on de objetos 3D. La DNN se puede dise¿nar para procesar datos de una sola modalidad o aprovechar datos de diferentes fuentes. Tambi¿en demostramos, que al entrenar con datos reales y sint¿eticos, considerar su brecha de dominio, dise¿nando una arquitectura de DNN acorde, mejora la precisi¿on del modelo. 2 Objetivos y contribuciones Los datos son clave en el proceso de desarrollo de un sistema de percepci¿on basado en DNN. Sin embargo, es dif¿¿cil obtener un conjunto de datos de entre- 2 namiento adecuado para las DNNs. Para hacer frente a este reto, es cada vez m¿as frecuente que los investigadores adopten la generaci¿on de datos sint¿eticos como alternativa a la obtenci¿on de datos reales. La forma en que se generan los datos sint¿eticos puede afectar la precisi¿on final del sistema, pero se presta poca atenci¿on a las elecciones realizadas en el dise¿no de generaci¿on de datos. Los entornos simulados pueden ayudar en la generaci¿on de datos sint¿eticos, pero no existen soluciones generalistas preparadas para los problemas personalizados que enfrentan la mayor¿¿a de las aplicaciones reales. Los modelos generativos son otra posibilidad para generar datos sin necesidad de un entorno simulado en 3D. Incluso despu¿es de obtener los datos de entrenamiento, se debe tener especial cuidado en procesarlos correctamente por parte de la DNN, dependiendo de sus propiedades. Las propiedades de los datos dependen de su fuente (p. ej., datos capturados o simulados), pero tambi¿en de la modalidad de sensor de la que provienen (p. ej., LiDAR, c¿amara). Con el fin de arrojar luz sobre las incertidumbres y los desaf¿¿os que implican los datos en el entrenamiento de DNN, esta tesis tiene como objetivo validar las siguientes hip¿otesis: 1. Hip¿otesis 1: Las muestras generadas artificialmente utilizando modelos y entornos 3D son v¿alidas para entrenar DNNs. Para validar si los datos sint¿eticos basados en gr¿aficos 3D pueden ayudar a entrenar DNNs, proponemos una metodolog¿¿a para generar datos sint¿eticos para resolver una tarea de visi¿on por computadora que carece de datos disponibles: detecci¿on de personas en grandes espacios desde c¿amaras omnidireccionales. Analizamos el impacto de diferentes opciones de dise¿no al generar los datos en la precisi¿on final de la DNN. Comparamos los resultados cuando usamos datos reales y sint¿eticos. Este trabajo se presenta en el Cap¿¿tulo 4. 2. Hip¿otesis 2: Un entorno 3D simulado puede ayudar a definir los datos necesarios y la configuraci¿on del sensor para los sistemas de percepci¿on basados en visi¿on y generar datos apropiados para el entrenamiento de DNN con un alto nivel de automatizaci¿on. Para validar esta hip¿otesis, definimos una metodolog¿¿a para construir un entorno simulado en 3D para configurar y entrenar sistemas multisensor con suficiente generalidad para ser utilizable en diferentes contextos de vigilancia. Mostramos una implementaci¿on pr¿actica del m¿etodo en el contexto de una cabina de avi¿on donde se quiere implementar un modelo de percepci¿on. Generamos datos sint¿eticos para entrenar una DNN para identificar cu¿ando el equipaje se coloca incorrectamente. Este trabajo se presenta en el Cap¿¿tulo 5. 3. Hip¿otesis 3: Las muestras generadas artificialmente utilizando modelos generativos son v¿alidas para entrenar DNNs sin necesidad de un entorno de simulaci¿on. Para verificar esta hip¿otesis, dise¿namos y entrenamos una GAN condicionada para la tarea de estimaci ¿on de la mirada. Esta tarea requiere datos complejos de obtener, y los 3 datos anotados disponibles p¿ublicamente son muy limitados. El Cap¿¿tulo 6 presenta nuestra investigaci¿on sobre el uso de GANs para explotar datos existentes etiquetados y no etiquetados y su impacto cuando se usan en el entrenamiento de DNNs. 4. Hip¿otesis 4: Adaptar el dise¿no de la arquitectura de una DNN a las modalidades de datos mejora los resultados obtenidos por modelos predefinidos y preentrenados. Adaptamos una arquitectura DNN orientada a im¿agenes a la detecci¿on de objetos 3D a partir de datos de nubes de puntos para confirmar esta hip¿otesis. Entrenamos el modelo propuesto con la nueva modalidad de datos y comparamos su precisi¿on con los m¿etodos m¿as avanzados cuando usamos solo datos de nubes de puntos y tambi¿en cuando incluimos datos adicionales de una c¿amara RGB. Este trabajo se presenta en el Cap¿¿tulo 7. 5. Hip¿otesis 5: Adaptar el dise¿no de la arquitectura de una DNN a los dominios de datos mejora los resultados obtenidos por los modelos predefinidos y preentrenados. Para validar esta hip¿otesis, proponemos una dise¿no y entrenamiento de DNN basado en im¿agenes reales y sint¿eticas en el contexto de verificaci¿on de disponibilidad de una cabina de avi¿on donde se quiere implementar un modelo de percepci¿on. Analizamos el impacto de entrenar una DNN de clasificaci¿on con adaptaci¿on de dominio y reducci¿on de redundancia de im¿agenes en la precisi¿on del modelo final. Este trabajo se presenta en el Cap¿¿tulo 8. 3 Trabajo futuro En base en los resultados y hallazgos de la investigaci¿on presentada en este proyecto de tesis, esbozamos algunas v¿¿as potenciales para futuras investigaciones. Los datos son esenciales para entrenar modelos de percepci¿on basados en aprendizaje autom¿atico, pero obtener suficientes datos de calidad sigue siendo uno de los principales desaf¿¿os en el desarrollo de la mayor¿¿a de los sistemas de percepci¿on. Como se muestra en la tesis actual, los datos sint¿eticos son una alternativa prometedora. Los datos obtenidos con GANs son realistas, se pueden transferir a un dominio espec¿¿fico y no requieren configurar un entorno de simulaci¿on. En consecuencia, los modelos generativos pueden ser una mejor soluci¿on en algunas situaciones que los datos simulados utilizando entornos 3D. La idoneidad del enfoque depende de los datos objetivo. Supongamos que es, por ejemplo, un escenario complejo, como el avi¿on del Cap¿¿tulo 5, o una configuraci ¿on multimodal, como un veh¿¿culo sin conductor. En ese caso, podr¿¿a ser m¿as eficaz utilizar un entorno de simulaci¿on 3D. En un entorno de simulaci¿on, los agentes pueden interactuar entre s¿¿ y es posible tener m¿as control sobre la configuraci¿on espacial del escenario. Si los datos de destino est¿an orientados a una instancia (p. ej., una persona, un objeto) en un entorno relativamente controlado (p. ej., estimaci¿on de la mirada, supervisi¿on del conductor, estimaci¿on 4 de la pose), el uso de GANs para la generaci¿on de datos podr¿¿a ser m¿as eficaz. En el trabajo futuro, los entornos 3D simulados podr¿¿an beneficiarse de los modelos generativos. Las t¿ecnicas emergentes de DNNs para generar modelos 3D pueden acelerar el proceso manual de recopilaci¿on o dise¿no de los activos 3D necesarios para cualquier entorno virtual. Los modelos generativos tambi¿en se pueden usar para aumentar los datos generados en un entorno simulado, aliviando el tiempo que pueden implicar los procesos pesados de renderizado, minimizando la brecha de dominio o transfiriendo la varianza aprendida por un modelo generativo de los datos reales a las im¿agenes renderizadas global o localmente a instancias espec¿¿ficas en la imagen. Los modelos generativos no se limitan a las GANs, las propuestas recientes sobre modelos de difusi¿on parecen prometedoras y se requiere m¿as investigaci¿on para ver hasta d¿onde nos pueden llevar. Otra potencial investigaci¿on futura es extender a nuevas tareas de visi¿on artificial el trabajo realizado para aprovechar datos sin etiquetar y anotaciones limitadas en el entrenamiento de GANs. Esto podr¿¿a permitir explotar datos ya existentes en conjuntos de datos de gran escala. Estos conjuntos de datos proporcionan una gran cantidad de datos variados, pero generalmente se enfocan en tareas espec¿¿ficas y, en consecuencia, contienen anotaciones s¿olo para esas tareas. La combinaci¿on de las fortalezas de diferentes conjuntos de datos podr¿¿a ayudar a desarrollar modelos m¿as robustos con una mejor capacidad de generalizaci¿on. Tambi¿en ser¿¿a interesante explorar el uso de modelos generativos con otras modalidades de datos, como nubes de puntos. La investigaci¿on en este campo a¿un es escasa, pero ser¿¿a muy beneficioso para el entrenamiento de DNNs. En cuanto al dise¿no de modelos, la investigaci¿on futura incluye trabajar en la explicabilidad del modelo. Ser capaz de interpretar o comprender por qu¿e un modelo hace una predicci¿on espec¿¿fica nos ayudar¿a a dise¿nar mejores conjuntos de datos y, en consecuencia, modelos. Adem¿as, podr¿¿a evitar artefactos negativos como el sesgo. La explicabilidad del modelo tambi¿en puede ser beneficiosa para analizar el papel de diferentes fuentes de datos en las predicciones de DNN multimodales y redise¿nar las arquitecturas en consecuencia. 5

Gehiago jakin...

Visual computing techniques for automated LIDAR annotation with application to intelligent transport systems

BARANDIARAN MARTIRENA,JOSE JAVIER

Zuzendariak:
GARCIA ALONSO MONTOYA, ALEJANDRO;
GRAÑA ROMAY, MANUEL MARIA;
OTAEGUI MADURGA, OIHANA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

The concept of Intelligent Transport Systems (ITS) refers to the application of communication and information technologies to transport with the aim of making it more efficient, sustainable, and safer. Computer vision is increasingly being used for ITS applications, such as infrastructure management or advanced driver-assistance systems. The latest progress in computer vision, thanks to the Deep Learning techniques, and the race for autonomous vehicle, have created a growing requirement for annotated data in the automotive industry. The data to be annotated is composed by images captured by the cameras of the vehicles and LIDAR data in the form of point clouds. LIDAR sensors are used for tasks such as object detection and localization. The capacity of LIDAR sensors to identify objects at long distances and to provide estimations of their distance make them very appealing sensors for autonomous driving. This thesis presents a method to automate the annotation of lane markings with LIDAR data. The state of the art of lane markings detection based on LIDAR data is reviewed and a novel method is presented. The precision of the method is evaluated against manually annotated data. Its usefulness is also evaluated, measuring the reduction of the required time to annotate new data thanks to the automatically generated pre-annotations. Finally, the conclusions of this thesis and possible future research lines are presented.

Gehiago jakin...

Advances in Streaming Novelty Detection.

CARREÑO LOPEZ, ANDER

Zuzendariak:
INZA CANO, IÑAKI;
LOZANO ALONSO, JOSE ANTONIO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2022
Laburpena:

En primer lugar, en esta tesis se aborda un problema de confusión entre términos y problemas en el cual el mismo término es utilizado para referirse a diferentes problemas y, de manera similar, el mismo problema es llamado con diferentes términos indistintamente. Esto motiva una dificultad de avance en el campo de conocimiento dado que es difícil encontrar literatura relacionada y propicia la repetición de trabajos. En la primera contribución se propone una asignación individual de términos a problemas y una formalización de los escenarios de aprendizaje para tratar de estandarizar el campo. En segundo lugar, se aborda el problema de Streaming Novelty Detection. En este problema, partiendo de un conjunto de datos supervisado, se aprende un modelo. A continuación, el modelo recibe nuevas instancias no etiquetadas para predecir su clase de manera online o en stream. El modelo debe actualizarse para hacer frente al concept-drift. En este escenario de clasificación, se asume que pueden surgir nuevas clases de forma dinámica. Por lo tanto, el modelo debe ser capaz de descubrir nuevas clases de manera automática y sin supervisión. En este contexto, esta tesis propone 2 contribuciones. En primer lugar una solución basada en mixturas de Guassianas donde cada clase en modelada con una de las componentes de la mixtura. En segundo lugar, se propone el uso de redes neuronales, tales como las redes Autoencoder, y las redes Deep Support Vector Data Description para trabajar con series temporales.

Gehiago jakin...

Visión artificial aplicada a los sistemas de transporte inteligentes: aplicaciones prácticas

CORTES VIDAL,ANDONI

Zuzendariak:
NIETO DONCEL, MARCOS;
RODRIGUEZ LAFUENTE, CLEMENTE
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

Esta tesis se focaliza en diferentes investigaciones y desarrollos llevados a cabo en el ámbito de los sistemas de transporte inteligente a diferentes niveles. Se han enfrentado problemas como la segmentación de vehículos, la detección y reconocimiento de elementos intrínsecamente relacionados con la infraestructura vial contemplando la posibilidad de extender esta detección a elementos ajenos a la infraestructura que pudieran generar situaciones de peligro si irrumpiesen de manera fortuita en las vías de transporte y se han realizado también, estudios teóricos sobre temas concretos que pueden actuar de guía para investigaciones realizadas en las líneas analizadas. En lo referente a los campos de aplicación, se proponen soluciones en diferentes áreas relacionadas con los sistemas de transporte inteligente. En concreto, soluciones para el peaje en sombra, donde se perseguían los objetivos de detección, clasificación y estimación de velocidad de los vehículos que transitaban una vía, soluciones para sistemas de asistencia avanzada a la conducción como el reconocimiento de señales de tráfico para ajustar la velocidad del vehículo e informar al conductor.

Gehiago jakin...

Técnicas de Visión e Inteligencia Artificial para Aplicaciones Industriales en Producción

LABAYEN ESNAOLA, MIKEL

Zuzendariak:
AGINAKO BENGOA, NAIARA;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

La Visión Artificial (VA) o Computer Vision (CV) está muy presente tanto en aplicaciones personales cotidianas como en la industria productiva, donde es una de las tecnologías fundacionales de la automatización de muchos de los procesos visuales. La elección de las arquitecturas SW y HW, así como su configuración/modificación para los casos de uso concretos, requieren nuevas líneas y tareas de investigación para poder garantizar la Fiabilidad, Disponibilidad, Mantenibilidad, Escalabilidad (FDME), y en último caso, y si la funcionalidad así lo requiere, la Seguridad de los productos/servicios para que al final sistemas basados en estas tecnologías puedan ser comercializados. Este proyecto de tesis tiene como objetivo proporcionar conocimientos y herramientas basados en sistema de Visión e Inteligencia Artificial (VA&IA) para el desarrollo de: *Prototipos funcionales y accesibles para cualquier tipo de empresa. *Productos comerciales en producción. *Productos para sistemas embebidos. *Funcionalidades de tipo Nivel de Integridad de Seguridad (NIS) o Safety Integrity Level (SIL).

Gehiago jakin...

On the use of context information for an improved application of data-based algorithms in condition monitoring.

LOPEZ DE CALLE ETXABE, KERMAN

Zuzendariak:
FERREIRO DEL RIO, SUSANA;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

En el campo de la monitorización de la condición, los algoritmos basados en datos cuentan con un amplio recorrido. Desde el uso de los gráficos de control de calidad que se llevan empleando durante casi un siglo a técnicas de mayor complejidad como las redes neuronales o máquinas de soporte vectorial que se emplean para detección, diagnóstico y estimación de vida remanente de los equipos. Sin embargo, la puesta en producción de los algoritmos de monitorización requiere de un estudio exhaustivo de un factor que es a menudo obviado por otros trabajos de la literatura: el contexto. El contexto, que en este trabajo es considerado como el conjunto de factores que influencian la monitorización de un bien, tiene un gran impacto en la algoritmia de monitorización y su aplicación final. Por este motivo, es el objeto de estudio de esta tesis en la que se han analizado tres casos de uso. Se ha profundizado en sus respectivos contextos, tratando de generalizar a la problemática habitual en la monitorización de maquinaria industrial, y se ha abordado dicha problemática de monitorización de forma que solucionen el contexto en lugar de cada caso de uso. Así, el conocimiento adquirido durante el desarrollo de las soluciones puede ser transferido a otros casos de uso que cuenten con contextos similares.

Gehiago jakin...

Contribuciones al modelado semántico de las comunidades de práctica en línea.

AGUILERA VALENZUELA, FELIPE IGNACIO

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA;
RIOS PEREZ, SEBASTIAN
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

Esta tesis está dirigida al estudio de un tipo especifico de redes sociales, las comunidades de practica, que se caracterizan por poseer un interés común que aglutina a los miembros. Consideramos la construcción de los grafos de relación de estas redes sociales en base a las comunicaciones que se realizan entre sus miembros mediante la publicación en los foros internos. Para mejorar la representación eliminando información espuria utilizamos herramientas de modelado semántico. La identificación de los miembros centrales en esta representación mejorada se ajusta mucho mejor a la realidad de la comunidad, usando como informacio ¿n de validación la identificación de miembros relevantes realizada por el administrador de la red. Utilizamos dos comunidades de práctica reales, de las que disponemos tanto de los datos como de la identificación de los miembros relevantes dada por los administradores de la red.

Gehiago jakin...

Contribution to supervised representation learning: algorithms and applications.

KHODER , AHMAD

Zuzendariak:
DORNAIKA , FADI;
MOUJAHID MOUJAHID, ABDELMALIK
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

In this thesis, we focus on supervised learning methods for pattern categorization. In this context, it remains a major challenge to establish efficient relationships between the discriminant properties of the extracted features and the inter-class sparsity structure. Our first attempt to address this problem was to develop a method called "Robust Discriminant Analysis with Feature Selection and Inter-class Sparsity" (RDA_FSIS). This method performs feature selection and extraction simultaneously. The targeted projection transformation focuses on the most discriminative original features while guaranteeing that the extracted (or transformed) features belonging to the same class share a common sparse structure, which contributes to small intra-class distances. In a further study on this approach, some improvements have been introduced in terms of the optimization criterion and the applied optimization process. In fact, we proposed an improved version of the original RDA_FSIS called "Enhanced Discriminant Analysis with Class Sparsity using Gradient Method" (EDA_CS). The basic improvement is twofold: on the first hand, in the alternating optimization, we update the linear transformation and tune it with the gradient descent method, resulting in a more efficient and less complex solution than the closed form adopted in RDA_FSIS. On the other hand, the method could be used as a fine-tuning technique for many feature extraction methods. The main feature of this approach lies in the fact that it is a gradient descent based refinement applied to a closed form solution. This makes it suitable for combining several extraction methods and can thus improve the performance of the classification process. In accordance with the above methods, we proposed a hybrid linear feature extraction scheme called "feature extraction using gradient descent with hybrid initialization" (FE_GD_HI). This method, based on a unified criterion, was able to take advantage of several powerful linear discriminant methods. The linear transformation is computed using a descent gradient method. The strength of this approach is that it is generic in the sense that it allows fine tuning of the hybrid solution provided by different methods. Finally, we proposed a new efficient ensemble learning approach that aims to estimate an improved data representation. The proposed method is called "ICS Based Ensemble Learning for Image Classification" (EM_ICS). Instead of using multiple classifiers on the transformed features, we aim to estimate multiple extracted feature subsets. These were obtained by multiple learned linear embeddings. Multiple feature subsets were used to estimate the transformations, which were ranked using multiple feature selection techniques. The derived extracted feature subsets were concatenated into a single data representation vector with strong discriminative properties. Experiments conducted on various benchmark datasets ranging from face images, handwritten digit images, object images to text datasets showed promising results that outperformed the existing state-ofthe- art and competing methods.

Gehiago jakin...

Konputazio fisiologikorako ekarpenak ikasketa automatikoaren bidez/Contributions to physiological computing by means of automatic learning.

SALAZAR RAMIREZ, ASIER

Zuzendariak:
ARRUTI ILLARRAMENDI, ANTONIO;
MARTIN ARAMBURU, JOSE IGNACIO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

El trabajo presentado en esta tesis se enmarca dentro de dos áreas dentro de la computación fisiológica, que a su vez forma parte de las ciencias de la computación. La primera área trabajada corresponde a la de la detección de fenómenos psicológicos y estados mentales mediante la monitorización de las variables fisiológicas de las personas. La segunda área que se estudia en esta tesis forma parte del estudio de formas alternativas de interacción: los interfaces cerebro-computador. La primera contribución mejora un sistema de lógica difusa que, mediante la monitorización de las señales fisiológicas, es capaz de dar una estimación continuada en el tiempo del nivel del estrés mental. La segunda contribución continua con esta línea y estudia la detección de las respuestas fisiológicas del fenómeno opuesto al estrés: la relajación. En esta contribución se presentan características innovadoras que facilitan dicha detección y la pone en práctica con métodos de aprendizaje automático. Finalmente, la tercera contribución estudia diferentes técnicas de aprendizaje para distinguir entre cuatro clases de movimiento más una quinta clase de no intencionalidad de movimiento en un problema de BCI.

Gehiago jakin...

Contribution to Graph-based Manifold Learning with Application to Image Categorization.

ZHU , RUIFENG

Zuzendariak:
DORNAIKA , FADI
Aipamenak:
Cum Laude
Nazioarteko tesia
Tesia Tutorekidetzan
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

Los algoritmos de aprendizaje de variedades basados en grafos (Graph,based manifold) son técnicas que han demostrado ser potentes herramientas para la extracción de características y la reducción de la dimensionalidad en los campos de reconomiento de patrones, visión por computador y aprendizaje automático. Estos algoritmos utilizan información basada en las similitudes de pares de muestras y del grafo ponderado resultante para revelar la estructura geométrica intrínseca de la variedad.

Gehiago jakin...

Efficient meta-heuristics for spacecraft trajectory optimization

SHIRAZI , ABOLFAZL

Zuzendariak:
CEBERIO URIBE, JOSU;
LOZANO ALONSO, JOSE ANTONIO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

Uno de los problemas más difíciles de la ingeniería espacial es la optimización de la trayectoria de las naves espaciales. Dicha optimización puede formularse como un problema de optimización que dependiendo del tipo de trayectoria, puede contener además restricciones de diversa índole. El principal objetivo de esta tesis fue el desarrollo de algoritmos metaheurísticos eficientes para la optimización de la trayectoria de las naves espaciales. Concretamente, nos hemos centrado en plantear soluciones a maniobras de naves espaciales que contemplan cambios de orbitas de largo y coto alcance. En lo que respecta a la investigación llevada a cabo, inicialmente se ha realizado una revisión de estado del arte sobre optimización de cambios de orbitas de naves espaciales. Según el estudio realizado, la optimización de trayectorias para el cambio de orbitas cuenta con cuatro claves, que incluyen la modelización matemática del problema, la definición de las funciones objetivo, el diseño del enfoque a utilizar y la obtención de la solución del problema. Una vez realizada la revisión del estado del arte, se han desarrollado dos algoritmos metaheurísticos. En primer lugar, se ha desarrollado un algoritmo evolutivo híbrido auto-adaptativo para problemas de cambio de orbitas de largo alcance y multi-impulso. El algoritmo es un método híbrido, combinado con técnicas de autoajuste y un procedimiento de refinamiento individual basado en el uso de distribuciones de probabilidad. Posteriormente, en lo que respecta a los problemas de optimización de trayectoria de los encuentros espaciales de corto alcance, se desarrolla un algoritmo de estimación de distribuciones con mecanismos de conservación de viabilidad. Los mecanismos propuestos aplican métodos innovadores de inicialización, aprendizaje y mapeo dentro del proceso de optimización. Incluyen mixturas de modelos probabilísticos, algoritmos de detección de soluciones atípicas y algunas técnicas heurísticas dentro del proceso de mapeo. Paralelamente al desarrollo de los algoritmos, se ha desarrollado un software de simulación para la visualización de los resultados obtenidos en el cambio de orbitas de las naves espaciales.

Gehiago jakin...

Contribution to Graph-based Semi-supervised Learning: Joint Label and Latent Space Estimation

BARADAAJI , ABDULLAH

Zuzendariak:
DORNAIKA , FADI
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

Graph-based semi-supervised learning is a model from the field of machine learning that focuses on developing algorithms that allow computers to learn from data and make predictions or decisions. Datasets play a critical role in semi-supervised learning as they are used to train, evaluate, and validate models. These datasets contain both labeled and unlabeled data, and techniques such as graph-based methods and label propagation leverage both types of data. By leveraging the underlying graph structure, these methods aim to improve performance on learning tasks. Graph-based embedding approaches are effective in reducing dimensionality and extracting relevant features. Graphs provide valuable structural information at local and global levels. In scenarios where data lacks labels, graph-based semisupervised learning (GBSSL) is particularly valuable. This work focuses on investigating and proposing different methods for developing robust models in the field of graph-based semi-supervised learning. Throughout the research, we have explored various approaches and techniques to improve the performance and effectiveness of these models. By exploiting the inherent structure and relationships in graph data, we aimed to improve the accuracy and reliability of predictions. The main contributions of the thesis are as follows. Firstly, this thesis presents a model for joint inference of soft labels and linear metric learning. This type of criterion, which simultaneously computes the class indicator matrix (soft labels) and the linear projection (latent space), would lead to better discriminative SSL models. The methods maximize the local margins within the projection space. In addition, both the estimated labels and the transformed data are subject to smoothing constraints. Secondly, we introduce a new method for graph-based semi-supervised learning that estimates labels and linear transformations simultaneously. This is achieved by combining two types of graphs: the data graph based on the data samples and an additional label graph derived from the predicted soft labels. By using these hybrid and adaptive graphs, the inclusion of monitoring information is improved, resulting in an improved discriminative linear transformation. This model applies two types of regularization: one for the labels and one for the transformed data. We refer to this as automatic weighted graph fusion, which involves a weighted combination without explicit coefficients. The fusion coefficients are estimated automatically during the iterative optimization of the objective function. Thirdly, we propose a unified semi-supervised model in which a low-rank data graph, the soft labels, and the latent subspace are jointly estimated with an objective function. The proposed system exploits the synergy between the graph structure and the data representation in terms of soft labels and latent features. This improves the monitoring information and leads to a better discriminative linear transformation. We extensively tested and validated our hypotheses in several studies and extended our experiments and analyzes to demonstrate the robustness of our results. It is worth noting that our hypotheses outperformed many competing semi-supervised methods. Through extensive experiments and comparisons with other approaches on various benchmark datasets, we validated the superiority of our proposal over numerous state-of-the-art graph-based semi-supervised algorithms, including those that perform joint estimation of labels and latent space. In addition, we evaluated the performance of our model against other methods on large datasets to provide a comprehensive assessment of its capabilities. Keywords: Graph-based embedding, discriminant embedding, soft labels, semisupervised learning, pattern recognition, image categorization, auto-weighted graph fusion, structured data.

Gehiago jakin...

Contributions for the exploitation of Semantic Technologies in Industry 4.0

RAMIREZ DURAN, VICTOR JULIO

Zuzendariak:
BERGES GONZALEZ, IDOIA;
ILLARRAMENDI ECHAVE, MARIA ARANZAZU
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

En este trabajo de investigación se promueve la utilización de las tecnologías semánticas, en el entorno de la Industria 4.0, a través de tres contribuciones enfocadas en temas correspondientes a la fabricación inteligente: las descripciones enriquecidas de componentes, la visualización y el análisis de los datos, y la implementación de la Industria 4.0 en PyMEs. La primera contribución es una ontología llamada ExtruOnt, la cual contiene descripciones semánticas de un tipo de máquina de fabricación (la extrusora). En esta ontología se describen los componentes, sus conexiones espaciales, sus características, sus representaciones en tres dimensiones y, finalmente, los sensores utilizados para capturar los datos. La segunda contribución corresponde a un sistema de consulta visual en el cual se utiliza la ontología ExtruOnt y una representación en 2D de la extrusora para facilitar a los expertos de dominio la visualización y la extracción de conocimiento sobre el proceso de fabricación de una manera rápida y sencilla. La tercera contribución consiste en una metodología para la implementación de la Industria 4.0 en PyMEs, orientada al ciclo de vida del cliente y potenciada por el uso de tecnologías Semánticas y tecnologías de renderizado 3D. Las contribuciones han sido desarrolladas, aplicadas y validadas bajo un escenario de fabricación real.

Gehiago jakin...

Estrategias de visión por computador para la estimación de pose en el contexto de aplicaciones robóticas industriales: avances en el uso de modelos tanto clásicos como de Deep Learning en imágenes 2D y nubes de puntos

MERINO BERMEJO, IBON

Zuzendariak:
REMAZEILLES , ANTHONY JACKY;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

La visión por computador es una tecnogía habilitadora que permite a los robots y sistemas autónomos percibir su entorno. Dentro del contexto de la industria 4.0 y 5.0, la visión por ordenador es esencial para la automatización de procesos industriales. Entre las técnicas de visión por computador, la detección de objetos y la estimación de la pose 6D son dos de las más importantes para la automatización de procesos industriales. Para dar respuesta a estos retos, existen dos enfoques principales: los métodos clásicos y los métodos de aprendizaje profundo. Los métodos clásicos son robustos y precisos, pero requieren de una gran cantidad de conocimiento experto para su desarrollo. Por otro lado, los métodos de aprendizaje profundo son fáciles de desarrollar, pero requieren de una gran cantidad de datos para su entrenamiento. En la presente memoria de tesis se presenta una revisión de la literatura sobre técnicas de visión por computador para la detección de objetos y la estimación de la pose 6D. Además se ha dado respuesta a los siguientes retos: (1) estimación de pose mediante técnicas de visión clásicas, (2) transferencia de aprendizaje de modelos 2D a 3D, (3) la utilización de datos sintéticos para entrenar modelos de aprendizaje profundo y (4) la combinación de técnicas clásicas y de aprendizaje profundo. Para ello, se han realizado contribuciones en revistas de alto impacto que dan respuesta a los anteriores retos.

Gehiago jakin...

OPTIMIZING DEEP NEURAL NETWORK DEPLOYMENT FOR INTELLIGENT SECURITY VIDEO ANALYTICS.

ELORDI HIDALGO, UNAI

Zuzendariak:
ARGANDA CARRERAS, IGNACIO;
UNZUETA IRURTIA, LUIS
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

La vídeo analítica inteligente para la seguridad actualmente aplica algoritmos de Inteligencia Artificial (IA) que permiten dar solución a las limitaciones de la vídeo vigilancia tradicional, que hasta ahora se basa meramente en la monitorización manual y con una capacidad muy limitada para detectar amenazas de seguridad en tiempo real. Las redes neuronales profundas (Deep Neural Networks, DNNs, en inglés) han demostrado ser altamente efectivas para el análisis de vídeo, pero su implementación en las infraestructuras actuales de sistemas inteligentes implican un reto importante debido a sus altos requisitos computacionales. Estas redes son grafos complejos de neuronas interconectadas con un gran número de parámetros y operaciones aritméticas, lo que resulta en cuellos de botella en el procesamiento. Además, las aplicaciones de visión basadas en DNNs involucran múltiples operaciones de inferencia de DNN y de pre- y post-procesamiento de datos, lo que lleva a una mayor sobrecarga de procesamiento. Aunque se han propuesto numerosas técnicas de optimización de DNNs, se necesitan nuevas estrategias de optimización en aplicaciones de extremo-a-extremo (end-to-end) basados en sistemas inteligentes de visión basados en DNNs. Con objetivo de dar respuesta a los requisitos computacionales de los DNNs, los nuevos aceleradores de IA han ido apareciendo en el mercado como (Las TPUs de Google, VPUs de Intel, etc., que se pueden denominar de manera generica como genérica "xPU", así como arquitecturas mejoradas de CPU, GPU y FPGA), diseñados para ser energéticamente eficientes y con un incremento de rendimiento muy considerable para la inferencia DNN. Sin embargo, desplegar de forma eficiente las aplicaciones basadas en DNNs dentro de estos dispositivos requiere de un expertise y know-how significativos. Además, el coste económico de estos dispositivos puede no estar justificado a menos que se utilicen eficientemente. Los sistemas de ISVA pueden estar integrados en plataformas de computación heterogéneas, descentralizadas y distribuidas como entornos en la nube (cloud), la niebla (fog) y dispositivos en extremo (edge) sin conexión o en el contexto de Internet de las Cosas (Internet of Things, IoT, en inglés). Estas plataformas requieren de un análisis exhaustivo en decidir la estrategia óptima de despliegue debido a su diversidad, incluyendo múltiples dispositivos, arquitecturas de aplicaciones y entornos virtualizados de ejecución. Desafortunadamente, estos entornos virtualizados y sus dispositivos hardware asociados no están diseñados para la inferencia DNN, y por lo tanto, no existe un soporte para desplegar estos sistemas entre la diversas opciones de los aceleradores de IA. Esta tesis tiene como objetivo optimizar el despliegue de aplicaciones de visión basadas en DNN dentro de las infraestructuras de sistemas inteligentes teniendo en cuenta los últimos avances en técnicas de optimización y estrategias de despliegue personalizadas de DNNs para visión por computador (Computer Vision, CV, en inglés). La investigación de este trabajo tiene como objetivo mejorar la eficiencia y la eficacia de los sistemas de vídeo analítica, habilitando un proceso de despliegue optimo para los sistemas inteligentes y entornos IoT. Basandose en estas técnicas y estrategias de despliegue de DNNs para CV, esta tesis pretende dar solucion a los desafíos asociados a los requisitos computacionales de las aplicaciones de visión artificial basadas en DNNs. Para lograr estos objetivos, este estudio propone diferentes estrategias de despliegue de DNN para análisis de videoen diferentes entornos de ejecución. Estos entornos incluyen (1) entornos en la nube serverless para delegar procesos a gran escala con una gran variabildad, (2) plataformas IoT heterogéneas y (3) dispositivos edge con recursos computacionales limitados con procesos computacionales exigentes. La primera estrategia proporciona una evaluación integral del rendimiento de la inferencia de DNN en entornos en la nube serverless y estrategias de despliegue de múltiples DNN en el contexto de la video analítica. La segunda estrategia analiza el despliegue óptimo de algoritmos de reconocimiento facial basados en múltiples DNN en entornos de IoT heterogéneos, que incluyen evaluación de calidad facial, anti-suplantación de identidad, verificación facial y gestión de datos biométricos seguros. Finalmente, la tercera estrategia optimiza un flujo proceso constante de vídeo analítica desplegado con múltiples DNNs ejecutándose en dispositivos de bajos recursos para solventar la problemática de la correcta posición del equipaje de mano en la cabina del avión Los resultados de esta tesis revelan que el despliegue de soluciones basadas en DNN para ISVA pueden beneficiarse de evaluaciones comparativas in-situ y de procedimientos basados en el conocimiento para aprovechar las capacidades computacionales de las plataformas en cada caso de uso. Objetivos y contribuciones El objetivo principal de esta tesis es aportar ideas y contribuciones al despliegue óptimo de aplicaciones de visión basadas en DNN para sistemas ISVA. Más concretamente, las aportaciones de esta tesis se centran en la generación y despliegue de un pipeline de procesamiento modular en las actuales infraestructuras de sistemas inteligentes. El diseño modular de este pipeline pretende aprovechar la fortaleza de los despliegues personalizados y los factores clave para maximizar el rendimiento. Esta tesis no sólo se centra en la investigación de cómo mejorar los factores clave para el rendimiento, sino que también tiene como objetivo ampliarlos para mejorar el rendimiento de las aplicaciones ISVA como el reconocimiento y seguimiento de personas y objetos. Más concretamente, los objetivos de esta Tesis son los siguientes: Desarrollar un pipeline modular para generar y desplegar modelos DNN de forma óptima: - Adaptado a las necesidades de las infraestructuras de sistemas inteligentes (es decir, centralizado, descentralizado, distribuido con edge/cloud Computing). - Adaptado a las especificaciones de software/hardware de los dispositivos de bajos recursos a los que va dirigido (RAM, CPU, tamaño de almacenamiento, sistema operativo, etc.). - Ajustado a los motores de inferencia DNN disponibles y a las herramientas de despliegue analizando las estructuras DNN y cómo mejorar sus índices de rendimiento. - Extraer los factores clave para mejorar la eficiencia de los procesos de reconocimiento visual de ISVA como la detección, reconocimiento y seguimiento de objetos y sujetos. Las contribuciones de esta tesis son: - Una metodología para analizar los factores clave en el diseño de las DNNs para mejorar las métricas de rendimiento considerando las arquitecturas DNN propuestas y los diferentes tipos de técnicas de optimización. Este método se presenta en el capítulo 2. - Un método para evaluar el rendimiento de procesamiento de los modelos DNN en entornos serverless. Concretamente, este trabajo propone una técnica de desacoplamiento sobre el actual benchmark de MLPerf para poder ser aplicado al modelo de ejecución de funciones sin servidor. Esta contribución se presenta en la primera parte del capítulo 3. - Una técnica de generación óptima y el despliegue de modelos DNN para arquitecturas sin servidor en la nube para sistemas inteligentes de videovigilancia. Esta contribución también se presenta en el capítulo 3. - Una metodología de despliegue automático de DNNs basado en técnicas de knowledge-driven para soluciones de reconocimiento facial en un entorno IoT heterogéneo. Todo ello, teniendo en cuenta las especificidades de la interacción del usuario, la seguridad del sistema y cuestiones de privacidad. Esta contribución se presenta en el capítulo 4. - Una metodología de despliegue de un sistema de vídeo analítica multi-DNN para entornos de ejecución de bajos recursos ejecutados en el edge. El escenario de despliegue se basa en aplicar algoritmos de reconocimiento de patrones donde el sistema analiza el correcto posicionamiento del equipaje dentro de la cabina de un avión para preservar la seguridad de las personas en el proceso de vuelo como el despegue, aterrizaje y taxi (TTL). - Conclusiones Nuestras observaciones finales y las estrategias correspondientes propuestas en este trabajo de investigación son las siguientes: Observación 1: El modelo de computación en la nube serverless es una alternativa adecuada para desplegar aplicaciones de visión basadas en DNN a gran escala. \textit{Estrategia 1}: La gestión óptima de la memoria asignada a las instancias de funciones sin servidor es un factor crucial para maximizar el rendimiento del procesamiento DNN al mínimo costo. Además, el cuello de botella reside en la tarea de procesamiento DNN de cada instancia de función sin servidor. Mientras que los modelos DNN ligeros se pueden implementar eficazmente en entornos serverless, la implementación de modelos DNN grandes no es factible actualmente debido a las restricciones de estos entornos virtualizados. A través de diferentes estudios experimentales realizados en el capítulo 3, concluimos que definir la asignación óptima de memoria para cada función influye en la latencia y el costo económico. En particular, la cantidad asignada funciona mejor entre 768MB y 1536MB en nuestro conjunto de experimentos. Finalmente, los resultados indican que la latencia del procesamiento DNN tiene una influencia insignificante en los resultados del rendimiento proporcionando 51-83 consultas por segundo en Amazon Lambda Observación 2: Desplegar aplicaciones de visión basadas en DNN en plataformas IoT requiere lidiar con la heterogeneidad del dispositivo hardware y la optimización de la inferencia de DNN. Además de ello, este despliegue también requiere centrarse en el procesamiento óptimo de otros componentes, como el pre procesamiento y la interacción con el usuario, mientras se preserva la privacidad y se mejora la seguridad. Estrategia 2: Crear estrategias de implementación adaptadas a las especificidades del hardware y software objetivo (sistema operativo (SO), RAM, aceleradores de IA), enfocadas en el entorno DNN (número de modelos DNN, configuraciones de modelos DNN, estrategias de delegación de tareas) y diseñadas para los requisitos de la aplicación ISVA (algoritmo de cifrado, equilibrio de red y flujo de trabajo de interacción con el usuario). La heterogeneidad del dispositivo se lleva a cabo mediante un optimizador de implementación inteligente, capaz de seleccionar el enfoque adecuado para la inferencia DNN para las especificaciones del hardware del dispositivo objetivo. La seguridad de los datos se refuerza mediante un esquema que evita la transmisión y almacenamiento de datos biométricos en la nube y emplea un cifrado homomórfico completo para realizar todas las operaciones de similitud facial directamente en el dominio cifrado. Una comparación cualitativa y experimentos preliminares) revelan su potencial para lograr el objetivo final deseado. Observación 3: Desplegar de manera óptima aplicaciones de visión basadas en múltiples DNNs para sistemas de vídeo analítica inteligente integradas en dispositivos de bajos requiere la optimización de los pipelines procesamiento. Esto implica maximizar el uso constante del hardware en ejecución y la minimización del consumo de energía. Para esto, es necesario realizar un análisis profundo de las optimizaciones del modelo DNN, los algoritmos de procesamiento de imágenes previas y posteriores, la programación de recursos y las estrategias de paralelización. Estrategia 3: Para abordar eficazmente esta observación, se deben tener en cuenta los siguientes factores clave: (1) Identificar los requisitos y métricas de rendimiento de la aplicación de visión ISVA de extremo a extremo para diseñar la tubería de procesamiento, (2) Crear un método óptimo de programación para la tubería analítica de vídeo que maximice las capacidades heterogéneas del hardware para la inferencia DNN, reduzca la complejidad de los modelos DNN, minimice la latencia del procesamiento y mantenga la precisión de la predicción. En el Capítulo 5 se propone una metodología utiliza redes prototípicas adversarias multi-tarea guiadas por métricas (MMDAPN) y un pipeline de proceso de paralelización. Esto aprovecha las capacidades de computación heterogéneas de los procesadores del sistema. El algoritmo de procesamiento del pipeline encuentra automáticamente el equilibrio óptimo entre latencia y consumo energético. Basándonos en los experimentos, concluimos que tamaños mayores y más hilos DNN para trabajadores son más eficientes para el procesamiento óptimo del pipeline. Trabajo futuro La computación serverless y su alta capacidad de escalado ofrecen un futuro prometedor para las aplicaciones y servicios de visión ISVA. Sin embargo, para superar las limitaciones de la computación sin servidor, se necesita más investigación para reducir la complejidad del modelo y el cálculo de DNN. Una solución potencial es distribuir el procesamiento de DNN en sistemas multi-tenant. El objetivo es expandir nuestras evaluaciones de benchmarking a plataformas populares de funciones serverless y explorar el benchmarking de sistemas ML más complejos. A medida que avancen las arquitecturas y optimizaciones de DNN, la naturaleza diversa de la infraestructura del sistema inteligente abordará más desafíos y problemas. Por ejemplo, hay un creciente interés en la investigación sobre sistemas de IA explicables, lo que requiere la integración de procesos adicionales para interpretar los resultados de las cajas negras DNN. Esto puede representar un desafío para los sistemas en tiempo real. Por lo tanto, es esencial realizar más experimentos con una gama más amplia de usuarios y equipos y estudiar en profundidad los problemas de interacción con estas técnicas. La comunidad de investigadores y desarrolladores está sugiriendo buenas prácticas para el ciclo de vida del despliegue del ML, desde el entrenamiento hasta el procesamiento de inferencias en el contexto del MLOps. A medida que continúen desarrollándose el hardware AI, las herramientas y arquitecturas de implementación DNN, la comunidad investigadora propondrá nuevos enfoques para estandarizar las estrategias de implementación para la comunidad MLOps.

Gehiago jakin...

Anomaly Detection in Multivariate Time Series

IRCIO FERNANDEZ JOSU

Zuzendariak:
LOJO NOVO, AIZEA;
LOZANO ALONSO, JOSE ANTONIO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

La investigación presentada en esta memoria se centra en la detección de anomalías en series temporales multivariantes. A pesar de ser un problema general con diversas aplicaciones, en este caso, nos centraremos en la detección de fallos en el funcionamiento de componentes de sistemas industriales. Teniendo en cuenta que en estos escenarios industriales es habitual disponer de un conjunto de series temporales de ejemplo donde se identifican series temporales de funcionamiento correcto y de funcionamiento anómalo, la manera de plantear el problema de detección de anomalías en series temporales multivariantes será enfocándolo como un problema de clasificación supervisada. Así pues, el objetivo será aprender un clasificador que sea capaz de distinguir las series temporales de funcionamiento correcto de las de funcionamiento anormal o inesperado. Esta tesis incluye tres capítulos principales que presentan las contribuciones realizadas para dar solución a los diferentes retos que surgen al abordar el problema de detección de anomalías con el enfoque propuesto. En el Capítulo 1, se presenta el desarrollo realizado para abordar el problema de la alta dimensionalidad en los problemas de clasificacion de series temporales multivariantes. Se propone un método de filtrado para reducir el número de variables de las series temporales multivariantes. Es decir, un método para seleccionar subconjuntos de series temporales relevantes y así reducir el total de series que componen las series temporales multivariantes. En el Capítulo 2, se abordan los retos de escenario streaming, degradación y desbalanceo de los datos. Para ello, el desarrollo se centra en el caso de uso de la predicción de errores en discos duros. En este caso, el objetivo es detectar cuándo un disco duro comienza a funcionar de manera anómala indicando una futura avería. El problema se modela como un problema de clasificación supervisada de series temporales multidimensionales basado en ventanas deslizantes. Con el fin de poder identificar los momentos en los que los discos empiezan a funcionar de manera irregular o anómala y así poder anticipar los fallos, se desarrolla una metodología de aprendizaje que tiene la degradación de los discos en cuenta. Además, como solución a la situación de gran desequilibrio entre las dos clases (no se dispone de muchos discos duros fallidos), se desarrolla una técnica novedosa que permite al clasificador maximizar el recall mínimo de las clases. El Capítulo 3 se centra en el problema de clasificación desbalanceada de series temporales. En particular, se mejora y refina la solución propuesta en el capítulo anterior para este problema. Se propone el aprendizaje de clasificadores de series temporales basados en redes neuronales que maximicen el mínimo recall de las clases en lugar del accuracy.

Gehiago jakin...

Survival analysis and classification study of software process improvement initiatives and their implications in small companies/Software prozesuen hobekuntzarako ekimenen biziraupen-analisia eta sailkapen-ikasketa, eta horien ondorioak enpresa txikietan.

LARRUCEA URIARTE, XABIER

Zuzendariak:
FERNANDEZ GAUNA, BORJA
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

Softwareak funtsezko papera dauka negozio gehienetan. Hain zuzen ere, edozein negozioren abantaila lehiakorraren gako nagusietako bat dela esan daiteke. Software hori enpresa handi, ertain edo txikiek sor dezakete. Testuinguru horretan, erakunde mota horiek prozesuak hobetzeko ekimenak martxan jartzeko hautua egiten dute, merkatuan eskaintzen dituzten zerbitzuen edo azken produktuen kalitatea hobetzeko helburuarekin. Hortaz, ohikoa izaten da enpresa handi eta ertainek azken produktuen garapen-prozesuak zehaztea, are eredugarriak diren kalitate-ereduak erabiltzea, industriatik eratorritako jardunbide egokiekin. Izan ere, hobekuntza-ekimen bat aurrera eramaten laguntzeko erreferentziazko eredu eta estandar asko daude. Hortaz, erakundeek hainbat eredutako eskakizunak bete behar izaten dituzte aldi berean. Estandar horien barruan antzekoak diren praktika edo eskakizunak egon ohi dira (bikoiztasunak), edo neurri handiko erakundeentzat pentsatuta daudenak. Erakunde txikien esparruan, bikoiztasun horiek gainkostua eragiten dute ekimen hauetan. Horren ondorioz, erreferentziazko ereduekin loturiko prozesuak zehazteko orduan, burokrazia-lana handitu egiten da. Horrez gain, eredu hauen bikoiztasunak ezabatzera eta bere prozesuak hainbat arau aldi berean aintzat hartuta berraztertzera behartzen ditu. Egoera hori bereziki delikatua da 25 langiletik behera dituzten erakunde txikientzat, Very Small Entities (VSE) izenez ere ezagunak direnak. Erakunde mota hauek ahal duten modurik onenean erabiltzen dituzte haien baliabideak, eta, haien ikuspegitik, erreferentziazko eredu hauek gastu bat dira inbertsio bat baino gehiago. Hortaz, ez dute prozesuak hobetzeko ekimenik martxan jartzen. Ildo horretatik, erakunde horiei VSE-en beharretara egokituko zen eredu bat eskaintzeko sortu zen ISO/IEC 29110. ISO/IEC 29110 arauaren lehen edizioa 2011n sortu zen eta, ordutik, zenbait ikerketa-lan eta industria-esperientzia garatu dira testuinguru horren barruan. Batetik, ez dago VSE-ekin loturik dauden nahikoa industria-esperientzia, eta, beraz, ez da erraza jakitea zein den VSE-en portaera. 2011tik, ISO/IEC29110 arauarekin zerikusia duten hainbat lan argitaratu dira, baina, orain arte, lan horien tipologia oso desberdina izan da. Horrenbestez, ezinbestekoa da lehen esperientzia hauek aztertu eta ezagutzea, egindako lehen lan horiek sailkatu ahal izateko. Bestetik, prozesuak hobetzeko ekimenek ez dute beti arrakastarik izaten, eta mota honetako ekimen baten iraupena zein izango den ere ez da gauza ziurra izaten. Hartara, ekimen hauek testuinguru hauetan daukaten biziraupen maila zein den aztertu behar da, bai eta VSE-etan prozesuak hobetzeko ekimenak garatu eta ezarri bitartean eman daitezkeen lan-ereduak identifikatzea ere. Azkenik, garatzen dituzten produktuen segurtasun-arloarekin kezka berezia izan ohi dute VSEk. Hortaz, segurtasun-alderdi nagusiak kudeatzeko mekanismoak ezarri behar izaten dituzte. Lehenik eta behin, lan honetan, ISO/IEC 29110 arauarekin loturiko artikuluen azterketa metodiko bat egin dugu, eta ikerketa-esparru nagusiak eta egindako lan mota garrantzitsuenak jaso ditugu. Bigarrenik, VSEk prozesuak hobetzeko martxan jarritako mota honetako ekimenen biziraupena aztertzeko marko bat proposatu dugu. Hirugarrenik, haien portaeraren ezaugarriak zehazteko, ekimen hauetan ematen diren ereduak identifikatzeko ikuspegia landu dugu. Laugarrenik, VSEn softwarearen garapenaren bizi-zikloan segurtasun-arloko alderdiak gehitzeko eta zor teknikoa kudeatzeko proposamena egin dugu.

Gehiago jakin...

Artificial Intelligence-based contributions to the detection of threats against information systems

MOLINA CORONADO, BORJA

Zuzendariak:
MIGUEL ALONSO, JOSE;
MORI CARRASCAL, USUE
Aipamenak:
Nazioarteko tesia
Kalifikazioa:
Bikain
Urtea:
2023
Laburpena:

Esta tesis se centra en identificar los factores que hacen poco realistas las propuestas de detección de ataques en red (NIDS) y detectores de malware en Android. En el area de NIDS, se han estudiado la aplicabilidad en entornos reales de las tecnicas de IA propuestas hasta 2019. Todo ello siguiendo el proceso de descubrimiento de conocimiento en bases de datos (KDD) como guía. En la detección de malware en Android, hemos propuesto un marco de evaluación común, inexistente hasta ahora en la literatura, basado en cinco factores determinantes del realismo de estos sistemas. Se han comparado 10 detectores del estado del arte usando este marco como referencia y concluyendo que representan propuestas optimistas e irrealistas. En base a estos hallazgos, este trabajo ha contribuido en la propuesta de detectores de malware realistas centrándose en dos ejes fundamentales: la actualizacion eficiente de modelos de IA para el manejo del concept drift, y la propuesta de un detector basado en IA y robusto a ofuscación, cuyo objetivo es evadir la detección. Todo este trabajo ha derivado hacia una conclusión principal, la falta de reproducibilidad en éstas dos áreas de la detección de amenazas en sistemas de información, lo que ralentiza el avance científico hacia soluciones mas realistas.

Gehiago jakin...

Intelligent road lane mark extraction using a Mobile Mapping System

IZQUIERDO PEREZ, ASIER

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA;
LOPEZ GUEDE, JOSE MANUEL
Aipamenak:
Cum Laude
Indistriako Tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

During the last years, road landmark in- ventory has raised increasing interest in different areas: the maintenance of transport infrastructures, road 3d modelling, GIS applications, etc. The lane mark detection is posed as a two-class classification problem over a highly class imbalanced dataset. To cope with this imbalance we have applied Active Learning approaches. This Thesis has been divided into two main com- putational parts. In the first part, we have evaluated different Machine Learning approaches using panoramic images, obtained from image sensor, such as Random Forest (RF) and ensembles of Extreme Learning Machines (V-ELM), obtaining satisfactory results in the detection of road continuous lane marks. In the second part of the Thesis, we have applied a Random Forest algorithm to a LiDAR point cloud, obtaining a georeferenced road horizontal signs classification. We have not only identified continuous lines, but also, we have been able to identify every horizontal lane mark detected by the LiDAR sensor.

Gehiago jakin...

Contributions to time series data mining towards the detection of outliers/anomalies

BLAZQUEZ GARCIA, ANE

Zuzendariak:
CONDE MANJON, ANGEL;
MORI CARRASCAL, USUE
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2022
Laburpena:

Los recientes avances tecnológicos han supuesto un gran progreso en la recogida de datos, permitiendo recopilar una gran cantidad de datos a lo largo del tiempo. Estos datos se presentan comúnmente en forma de series temporales, donde las observaciones se han registrado de forma cronológica y están correlacionadas en el tiempo. A menudo, estas dependencias temporales contienen información significativa y útil, por lo que, en los últimos años, ha surgido un gran interés por extraer dicha información. En particular, el área de investigación que se centra en esta tarea se denomina minería de datos de series temporales. La comunidad de investigadores de esta área se ha dedicado a resolver diferentes tareas como por ejemplo la clasificación, la predicción, el clustering o agrupamiento y la detección de valores atípicos/anomalías. Los valores atípicos o anomalías son aquellas observaciones que no siguen el comportamiento esperado en una serie temporal. Estos valores atípicos o anómalos suelen representar mediciones no deseadas o eventos de interés, y, por lo tanto, detectarlos suele ser relevante ya que pueden empeorar la calidad de los datos o reflejar fenómenos interesantes para el analista. Esta tesis presenta varias contribuciones en el campo de la minería de datos de series temporales, más específicamente sobre la detección de valores atípicos o anomalías. Estas contribuciones se pueden dividir en dos partes o bloques. Por una parte, la tesis presenta contribuciones en el campo de la detección de valores atípicos o anomalías en series temporales. Para ello, se ofrece una revisión de las técnicas en la literatura, y se presenta una nueva técnica de detección de anomalías en series temporales univariantes para la detección de fugas de agua, basada en el aprendizaje autosupervisado. Por otra parte, la tesis también introduce contribuciones relacionadas con el tratamiento de las series temporales con valores perdidos y demuestra su aplicabilidad en el campo de la detección de anomalías.

Gehiago jakin...

Contributions to the Mathematical Modeling of Estimation of Distribution Algorithms and Pseudo-Boolean Functions

UNANUE GUAL, IMANOL

Zuzendariak:
LOZANO ALONSO, JOSE ANTONIO;
MERINO MAESTRE, MARIA
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

maximice o minimice una función objetivo definida sobre un espacio discreto. Dado que la mayoría de dichos problemas no pueden ser resueltos mediante una búsqueda exhaustiva, su resolución se aproxima frecuentemente mediante algoritmos heurísticos. Sin embargo, no existe ningún algoritmo que se comporte mejor que el resto de algoritmos para resolver todas las instancias de cualquier problema. Por ello, el objetivo ideal es, dado una instancia de un problema, saber cuál es el algoritmo cuya resolución es más eficiente. Las dos líneas principales de investigación para lograr dicho objetivo son estudiar las definiciones de los problemas y las posibles instancias que cada problema puede generar y el estudio de los diseños y características de los algoritmos. En esta tesis, se han tratado ambas lineas. Por un lado, hemos estudiado las funciones pseudo-Booleanas y varios problemas binarios específicos. Por otro lado, se ha presentado un modelado matemático para estudiar Algoritmos de Estimación de Distribuciones diseñados para resolver problemas basados en permutaciones. La principal motivación ha sido seguir progresando en este campo para comprender mejor las relaciones entre los Problemas de Optimización Combinatoria y los algoritmos de optimización.

Gehiago jakin...

Solving Fishing Routing Problems with Metaheuristics

GRANADO DOMINGUEZ, IGOR

Zuzendariak:
FERNANDES SALVADOR, JOSE ANTONIO;
HERNANDO RODRIGUEZ, LETICIA
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

The current climate change crisis, coupled with fuel price volatility, and the loss of efficiency in the fishing industry, is jeopardising the sustainability of the fishing sector. One potential approach to tackle such challenges is to explore novel methods for planning their fishing routes. This dissertation proposed the formulation of two novel fishing routing problems based on real needs of the fisheries sector. The first problem focuses on the dynamic fishing routing problem of a tuna purse seiner, while the second problem expands the previous one by considering multiple vessels and the deployment of new drifting fish aggregation devices (dFADs). To solve these problems, two metaheuristics are proposed. The first algorithm, designed to solve the single vessel routing problem, couples a genetic algorithm (GA) with a time-dependent A* algorithm, known as GA-TDA*. For the multiple vessel routing problem, a multi-objective greedy randomized adaptive search procedure (MO-GRASP) algorithm is proposed. Computational experiments conducted on historical data prove the feasibility of applying metaheuristics algorithms in a real context and explore the benefits of routing methods to improve the sustainability and feasibility of the fisheries sector.

Gehiago jakin...

Advances in flexible manipulation through the application of AI-based techniques

IRIONDO AZPIRI ANDER

Zuzendariak:
ANSUATEGUI COBO, ANDER;
LAZKANO ORTEGA, ELENA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

Objektuak hartu eta uztea oinarrizko bi eragiketa dira ia edozein aplikazio robotikotan. Gaur egun, "pick and place" aplikazioetarako erabiltzen diren robot industrialek zeregin sinpleak eta errepikakorrak egiteko duten eraginkortasuna dute ezaugarri. Hala ere, sistema horiek oso zurrunak dira, erabat kontrolatutako inguruneetan lan egiten dute, eta oso kostu handia dakarte beste zeregin batzuk egiteko birprogramatzeak. Gaur egun, industria-ingurune desberdinetako zereginak daude (adibidez, logistika-ingurune batean eskaerak prestatzea), zeinak objektuak malgutasunez manipulatzea eskatzen duten, eta oraindik ezin izan dira automatizatu beren izaera dela-eta. Automatizazioa zailtzen duten botila-lepo nagusiak manipulatu beharreko objektuen aniztasuna, roboten trebetasun falta eta kontrolatu gabeko ingurune dinamikoen ziurgabetasuna dira. Adimen artifizialak (AA) gero eta paper garrantzitsuagoa betetzen du robotikaren barruan, robotei zeregin konplexuak betetzeko beharrezko adimena ematen baitie. Gainera, AAk benetako esperientzia erabiliz portaera konplexuak ikasteko aukera ematen du, programazioaren kostua nabarmen murriztuz. Objektuak manipulatzeko egungo sistema robotikoen mugak ikusita, lan honen helburu nagusia manipulazio-sistemen malgutasuna handitzea da AAn oinarritutako algoritmoak erabiliz, birprogramatu beharrik gabe ingurune dinamikoetara egokitzeko beharrezko gaitasunak emanez.

Gehiago jakin...

Contributions to the study of Austism Spectrum Brain conectivity

SILVA CHOQUE, MOISES MARTIN

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA
Kalifikazioa:
Bikain
Urtea:
2021
Laburpena:

Autism Spectrum Disorder (ASD) is a largely prevalent neurodevelopmental condition with a big social and economical impact affecting the entire life of families. There is an intense search for biomarkers that can be assessed as early as possible in order to initiate treatment and preparation of the family to deal with the challenges imposed by the condition. Brain imaging biomarkers have special interest. Specifically, functional connectivity data extracted from resting state functional magnetic resonance imaging (rs-fMRI) should allow to detect brain connectivity alterations. Machine learning pipelines encompass the estimation of the functional connectivity matrix from brain parcellations, feature extraction and building classification models for ASD prediction. The works reported in the literature are very heterogeneous from the computational and methodological point of view. In this Thesis we carry out a comprehensive computational exploration of the impact of the choices involved while building these machine learning pipelines.

Gehiago jakin...

Contributions to LiDAR based SLAM and Computational Ethology.

AGUILAR MORENO, MARINA

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

This Thesis deals with two different topics centered about applications of Computational Intelligence techniques. The first topic is the implementation of simultaneous localization and mapping (SLAM) algorithms that are appropriate for low-cost LiDAR sensors, specifically the Quanergy M8. Conventional and Deep Learning algorithms have shown shortcomings dealing with this data, hence this Thesis proposes a novel hybrid SLAM algorithm that achieves good results over in-house datasets captured with the low cost LiDAR sensor. The second topic tackled in this Thesis is the discrimination of animal models on the basis of pressure signals. For this task, we work on real experimental data provided by a collaborating neurosciences team. The Thesis deals with the selection of signal features and the experimentation with a diversity of state of the art machine learning algorithms. The application of transfer deep learning upon signal spectrogram images improves significantly over conventional machine learning algorithms, concluding that it is feasible to discriminate animal models on the basis of pressure signal captured during locomotion periods.

Gehiago jakin...

Machine Learning Approaches to Video Activity Recognition: from Computer Vision to Signal Processing

RODRIGUEZ MORENO, ITSASO

Zuzendariak:
MARTINEZ OTZETA, JOSE MARIA;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

La investigación presentada se centra en técnicas de clasificación para dos tareas diferentes, aunque relacionadas, de tal forma que la segunda puede ser considerada parte de la primera: el reconocimiento de acciones humanas en vídeos y el reconocimiento de lengua de signos. En la primera parte, la hipótesis de partida es que la transformación de las señales de un vídeo mediante el algoritmo de Patrones Espaciales Comunes (CSP por sus siglas en inglés, comúnmente utilizado en sistemas de Electroencefalografía) puede dar lugar a nuevas características que serán útiles para la posterior clasificación de los vídeos mediante clasificadores supervisados. Se han realizado diferentes experimentos en varias bases de datos, incluyendo una creada durante esta investigación desde el punto de vista de un robot humanoide, con la intención de implementar el sistema de reconocimiento desarrollado para mejorar la interacción humano-robot. En la segunda parte, las técnicas desarrolladas anteriormente se han aplicado al reconocimiento de lengua de signos, pero además de ello se propone un método basado en la descomposición de los signos para realizar el reconocimiento de los mismos, añadiendo la posibilidad de una mejor explicabilidad. El objetivo final es desarrollar un tutor de lengua de signos capaz de guiar a los usuarios en el proceso de aprendizaje, dándoles a conocer los errores que cometen y el motivo de dichos errores.

Gehiago jakin...

Optimization for Deep Learning Systems Applied to Computer Vision

MONTERO MARTIN, DAVID

Zuzendariak:
AGINAKO BENGOA, NAIARA;
NIETO DONCEL, MARCOS;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

Since the DL revolution and especially over the last years (2010-2022), DNNs have become an essential part of the CV field, and they are present in all its sub-fields (video-surveillance, industrial manufacturing, autonomous driving, ...) and in almost every new state-of-the-art application that is developed. However, DNNs are very complex and the architecture needs to be carefully selected and adapted in order to maximize its efficiency. In many cases, networks are not specifically designed for the considered use case, they are simply recycled from other applications and slightly adapted, without taking into account the particularities of the use case or the interaction with the rest of the system components, which usually results in a performance drop. This research work aims at providing knowledge and tools for the optimization of systems based on Deep Learning applied to different real use cases within the field of Computer Vision, in order to maximize their effectiveness and efficiency.

Gehiago jakin...

A NOVEL ARCHITECTURE FOR COLLABORATIVE AUGMENTED REALITY EXPERIENCES FOR EDUCATION

MASNERI , STEFANO

Zuzendariak:
ARRUARTE LASA, ANA JESUS;
ZORRILLA BERASATEGUI, MIKEL JOSEBA
Aipamenak:
Cum Laude
Indistriako Tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2024
Laburpena:

La Realidad Aumentada tiene un enorme potencial para revolucionar el sector de la educación. Aunque ya existen aplicaciones de aprendizaje basadas en la Realidad Aumentada, su creación es compleja y están destinadas principalmente a un uso individual. La falta de herramientas para sincronizar las experiencias de Realidad Aumentada entre varios usuarios, los problemas relacionados con la adaptación de los contenidos aumentados en diferentes dispositivos, la dificultad de incorporar aplicaciones en los sistemas de gestión del aprendizaje utilizados en las escuelas han limitado, hasta ahora, la adopción de la Realidad Aumentada en las aulas. Para abordar estas cuestiones, esta investigación presenta cleAR, una novedosa arquitectura que permite el desarrollo de aplicaciones de Realidad Aumentada interoperables y colaborativas. La arquitectura se ha diseñado teniendo en cuenta tanto aspectos técnicos como educativos. cleAR es una arquitectura modular que también proporciona a los profesores herramientas para analizar los datos sobre el uso de las aplicaciones de Realidad Aumentada, así como los resultados de los estudiantes. Para evaluar el diseño de la arquitectura, se ha desarrollado y probado una aplicación de Realidad Aumentada multiplataforma y colaborativa en tres centros educativos. La evaluación incluyó la recogida de respuestas a encuestas de los alumnos que participaron en las pruebas, entrevistas a sus profesores y un análisis cuantitativo de los datos recogidos a través de la aplicación.

Gehiago jakin...

Contributions to time series analysis, modelling and forecasting to increase reliability in industrial environments.

GOMEZ OMELLA MERITXELL

Zuzendariak:
FERREIRO DEL RIO, SUSANA;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Indistriako Tesia
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

La integración del Internet of Things en el sector industrial es clave para alcanzar la inteligencia empresarial. Este estudio se enfoca en mejorar o proponer nuevos enfoques para aumentar la confiabilidad de las soluciones de IA basadas en datos de series temporales en la industria. Se abordan tres fases: mejora de la calidad de los datos, modelos y errores. Se propone una definición estándar de métricas de calidad y se incluyen en el paquete dqts de R. Se exploran los pasos del modelado de series temporales, desde la extracción de características hasta la elección y aplicación del modelo de predicción más eficiente. El método KNPTS, basado en la búsqueda de patrones en el histórico, se presenta como un paquete de R para estimar datos futuros. Además, se sugiere el uso de medidas elásticas de similitud para evaluar modelos de regresión y la importancia de métricas adecuadas en problemas de clases desbalanceadas. Las contribuciones se validaron en casos de uso industrial de diferentes campos: calidad de producto, previsión de consumo eléctrico, detección de porosidad y diagnóstico de máquinas.

Gehiago jakin...

Broadening the Horizon of Adversarial Attacks in Deep Learning

VADILLO JUEGUEN, JON

Zuzendariak:
LOZANO ALONSO, JOSE ANTONIO;
SANTANA HERMIDA, ROBERTO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

Los modelos de Aprendizaje Automático como las Redes Neuronales Profundas son actualmente el núcleo de una amplia gama de tecnologías aplicadas en tareas críticas, como el reconocimiento facial o la conducción autónoma, en las que tanto la capacidad predictiva como la fiabilidad son requisitos fundamentales. Sin embargo, estos modelos pueden ser fácilmente engañados por inputs manipulados de forma imperceptible para el ser humano, denominados ejemplos adversos (adversarial examples), lo que implica una brecha de seguridad que puede ser explotada por un atacante con fines ilícitos. Dado que estas vulnerabilidades afectan directamente a la integridad y fiabilidad de múltiples sistemas que, progresivamente, están siendo desplegados en aplicaciones del mundo real, es crucial determinar el alcance de dichas vulnerabilidades para poder garantizar así un uso más responsable, informado y seguro de esos sistemas. Por estos motivos, esta tesis doctoral tiene como objetivo principal investigar nuevas nociones de ataques adversos y vulnerabilidades en las Redes Neuronales Profundas. Como resultado de esta investigación, a lo largo de esta tesis se exponen nuevos paradigmas de ataque que exceden o amplían las capacidades de los métodos actualmente disponibles en la literatura, ya que son capaces de alcanzar objetivos más generales, complejos o ambiciosos. Al mismo tiempo, se exponen nuevas brechas de seguridad en casos de uso y escenarios en los que las consecuencias de los ataques adversos no habían sido investigadas con anterioridad. Nuestro trabajo también arroja luz sobre diferentes propiedades de estos modelos que los hacen más vulnerables a los ataques adversos, contribuyendo a una mejor comprensión de estos fenómenos.

Gehiago jakin...

Unsupervised learning approaches for disease progression modeling

ZABALLA LARUMBE ONINTZE

Zuzendariak:
LOZANO ALONSO, JOSE ANTONIO;
PEREZ MARTINEZ, ARITZ
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2024
Laburpena:

Esta tesis presenta metodologías para el aprendizaje no supervisado a partir de secuencias discretas que definen el historial clínico de un paciente. Específicamente, estos métodos permiten modelar la evolución de las trayectorias de tratamientos asociados a una o varias enfermedades. Desarrollamos modelos basados en diversas técnicas de clasificación de secuencias para capturar los subtipos de tratamientos para una enfermedad, las irregularidades temporales entre eventos médicos y la evolución conjunta de los tratamientos en el historial clínico de un paciente. Además, introducimos métodos eficientes para el aprendizaje de estos modelos. Utilizamos una base de datos proporcionada por Osakidetza para la evaluación de las metodologías propuestas, donde cada paciente está representado por una secuencia de servicios médicos a lo largo del tiempo, con solo el 19% de estos eventos médicos con diagnóstico asociado. Incluímos aplicaciones prácticas enfocadas en pacientes con diagnóstico de cáncer de mama, destacando así la relevancia e impacto de los modelos en situaciones del mundo real. En resumen , esta tesis propone metodologías interpretables para comprender la dinámica de las enfermedades, abordando de manera efectiva los desafíos particulares que surgen en los registros electrónicos de salud.

Gehiago jakin...

Machine learning based anomaly detection for industry 4.0 systems.

VELASQUEZ RENDON, DAVID

Zuzendariak:
MAIZA GALPARSORO, MIGUEL ANGEL;
SIERRA ARAUJO, BASILIO
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

This thesis studies anomaly detection in industrial systems using technologies from the Fourth Industrial Revolution (4IR), such as the Internet of Things, Artificial Intelligence, 3D Printing, and Augmented Reality. The goal is to provide tools that can be used in real-world scenarios to detect system anomalies, intending to improve production and maintenance processes. The thesis investigates the applicability and implementation of 4IR technology architectures, AI-driven machine learning systems, and advanced visualization tools to support decision-making based on the detection of anomalies. The work covers a range of topics, including the conception of a 4IR system based on a generic architecture, the design of a data acquisition system for analysis and modelling, the creation of ensemble supervised and semi-supervised models for anomaly detection, the detection of anomalies through frequency analysis, and the visualization of associated data using Visual Analytics. The results show that the proposed methodology for integrating anomaly detection systems in new or existing industries is valid and that combining 4IR architectures, ensemble machine learning models, and Visual Analytics tools significantly enhances the anomaly detection processes for industrial systems. Furthermore, the thesis presents a guiding framework for data engineers and end-users.

Gehiago jakin...

On the use of multi-sensor digital traces to discover spatio-temporal human behavioral patterns

MUÑOZ CANCINO, RICARDO LUIS

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

La tecnología ya es parte de nuestras vidas y cada vez que interactuamos con ella, ya sea en una llamada telefónica, al realizar un pago con tarjeta de crédito o nuestra actividad en redes sociales, se almacenan trazas digitales. En esta tesis nos interesan aquellas trazas digitales que también registran la geolocalización de las personas al momento de realizar sus actividades diarias. Esta información nos permite conocer cómo las personas interactúan con la ciudad, algo muy valioso en planificación urbana, gestión de tráfico, políticas publicas e incluso para tomar acciones preventivas frente a desastres naturales. Esta tesis tiene por objetivo estudiar patrones de comportamiento humano a partir de trazas digitales. Para ello se utilizan tres conjuntos de datos masivos que registran la actividad de usuarios anonimizados en cuanto a llamados telefónicos, compras en tarjetas de crédito y actividad en redes sociales (check-ins, imágenes, comentarios y tweets). Se propone una metodología que permite extraer patrones de comportamiento humano usando modelos de semántica latente, Latent Dirichlet Allocation y Dynamic Topis Models. El primero para detectar patrones espaciales y el segundo para detectar patrones espaciotemporales. Adicionalmente, se propone un conjunto de métricas para contar con un método objetivo de evaluación de patrones obtenidos.

Gehiago jakin...

Contribution to Graph-based Multi-view Clustering: Algorithms and Applications

EL HAJJAR , SALLY

Zuzendariak:
DORNAIKA , FADI
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2022
Laburpena:

In this thesis, we study unsupervised learning, specifically, clustering methods for dividing data into meaningful groups. One major challenge is how to find an efficient algorithm with low computational complexity to deal with different types and sizes of datasets. For this purpose, we propose two approaches. The first approach is named "Multi-view Clustering via Kernelized Graph and Nonnegative Embedding" (MKGNE), and the second approach is called "Multi-view Clustering via Consensus Graph Learning and Nonnegative Embedding" (MVCGE). These two approaches jointly solve four tasks. They jointly estimate the unified similarity matrix over all views using the kernel tricks, the unified spectral projection of the data, the cluster indicator matrix, and the weight of each view without additional parameters. With these two approaches, there is no need for any postprocessing such as k-means clustering. In a further study, we propose a method named "Multi-view Spectral Clustering via Constrained Nonnegative Embedding" (CNESE). This method can overcome the drawbacks of the spectral clustering approaches, since they only provide a nonlinear projection of the data, on which an additional step of clustering is required. This can degrade the quality of the final clustering due to various factors such as the initialization process or outliers. Overcoming these drawbacks can be done by introducing a nonnegative embedding matrix which gives the final clustering assignment. In addition, some constraints are added to the targeted matrix to enhance the clustering performance. In accordance with the above methods, a new method called "Multi-view Spectral Clustering with a self-taught Robust Graph Learning" (MCSRGL) has been developed. Different from other approaches, this method integrates two main paradigms into the one-step multi-view clustering model. First, we construct an additional graph by using the cluster label space in addition to the graphs associated with the data space. Second, a smoothness constraint is exploited to constrain the cluster-label matrix and make it more consistent with the data views and the label view. Moreover, we propose two unified frameworks for multi-view clustering in Chapter 9. In these frameworks, we attempt to determine a view-based graphs, the consensus graph, the consensus spectral representation, and the soft clustering assignments. These methods retain the main advantages of the aforementioned methods and integrate the concepts of consensus and unified matrices. By using the unified matrices, we enforce the matrices of different views to be similar, and thus the problem of noise and inconsistency between different views will be reduced. Extensive experiments were conducted on several public datasets with different types and sizes, varying from face image datasets, to document datasets, handwritten datasets, and synthetics datasets. We provide several analyses of the proposed algorithms, including ablation studies, hyper-parameter sensitivity analyses, and computational costs. The experimental results show that the developed algorithms through this thesis are relevant and outperform several competing methods.

Gehiago jakin...

ANGULAR MARGIN-BASED SOFTMAX LOSSES: TOWARD DISCRIMINATIVE DEEP METRIC LEARNING.

ALIREZAZADEH PENDAR

Zuzendariak:
DORNAIKA , FADI;
MOUJAHID MOUJAHID, ABDELMALIK

Supervised Learning in Time-dependent Environments with Performance Guarantees

ALVAREZ CASTRO, VERONICA

Zuzendariak:
LOZANO ALONSO, JOSE ANTONIO;
MAZUELAS , SANTIAGO
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

En esta tesis, establecemos metodologías para el aprendizaje supervisado a partir de una secuencia de tareas dependientes del tiempo que explotan eficazmente la información de todas las tareas, proporcionan una adaptación multidimensional a los cambios de tareas y ofrecen garantías de rendimiento ajustadas y computables. Desarrollamos métodos para entornos de aprendizaje supervisado en los que las tareas llegan a lo largo del tiempo, incluidas técnicas de clasificación supervisada bajo concept drift y técnicas de continual learning. Además, presentamos técnicas de previsión de la demanda de energía que pueden adaptarse a los cambios temporales en los patrones de consumo y evaluar las incertidumbres intrínsecas de la demanda de carga. Los resultados numéricos muestran que las metodologías propuestas pueden mejorar significativamente el rendimiento de los métodos existentes utilizando múltiples conjuntos de datos de referencia. Esta tesis hace contribuciones teóricas que conducen a algoritmos eficientes para múltiples escenarios de aprendizaje automático que proporcionan garantías de rendimiento computables y un rendimiento superior al de las técnicas más avanzadas.

Gehiago jakin...

Understanding Non-Convex Optimization Problems and Stochastic Optimization Algorithms

ARZA GONZALEZ, ETOR

Zuzendariak:
IRUROZQUI ARRIETA, EKHIÑE;
PEREZ MARTINEZ, ARITZ
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

Esta tesis presenta contribuciones significativas en el campo de las heurísticas estocásticas iterativas. Se abordan varios aspectos relacionados con la comparación y mejora de algoritmos de optimización. En primer lugar, se propone una metodología para comparar de manera justa el rendimiento de algoritmos ejecutados en diferentes máquinas, asegurando una asignación equitativa de recursos computacionales. Además, se introduce una metodología basada en la dominancia estocástica para comparar el rendimiento de algoritmos de optimización como variables aleatorias. Asimismo, se analiza la relación entre la distancia de Hamming y el problema de asignación cuadrática. Se desarrolla un método general de detención temprana para el aprendizaje de políticas en problemas episódicos, que no requiere información específica del problema. En resumen, esta tesis contribuye a la comprensión y mejora de las heurísticas estocásticas iterativas en el ámbito de la optimización.

Gehiago jakin...

Artificial intelligence for advanced manufacturing quality

SAIZ ALVARO FATIMA AURORA

Zuzendariak:
BARANDIARAN MARTIRENA,IÑIGO;
GRAÑA ROMAY, MANUEL MARIA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2023
Laburpena:

This Thesis addresses the challenge of AI-based image quality control systems applied to manufacturing industry, aiming to improve this field through the use of advanced techniques for data acquisition and processing, in order to obtain robust, reliable and optimal systems. This Thesis presents contributions on the use of complex data acquisition techniques, the application and design of specialised neural networks for the defect detection, and the integration and validation of these systems in production processes. It has been developed in the context of several applied research projects that provided a practical feedback of the usefulness of the proposed computational advances as well as real life data for experimental validation.

Gehiago jakin...

Modelando las decisiones de contribución de contenido de usuarios en una red social.

CLEVELAND ORTEGA, PABLO ANDRE

Zuzendariak:
GRAÑA ROMAY, MANUEL MARIA;
RIOS PEREZ, SEBASTIAN
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2022
Laburpena:

El creciente uso de los servicios de internet, particularmente de las redes sociales en línea (OSN), ha generado una gran oportunidad para entender mejor el comportamiento de los usuarios como también de los flujos de in- formación. El modelado de flujos de información no es un tema nuevo, pero la aparición de OSNs y comunidades virtuales de practica (VCoPs) proporcionan nuevas fuentes de datos que han revitalizado la investigación en esa área. La mayoría, si no todos, de los estudios revisado modelan las OSN a un nivel macroscópico, donde la agregación de eventos no permite observar comportamientos a un nivel de usuario. Nuestra hipótesis es que es posible modelar la difusión de información a nivel microscópico mediante un modelo derivado de la neurofisiología y de la teoría de la decisión.

Gehiago jakin...

Innovative algorithms for completion of resource intensive tasks in IoT devices and novel pplications in the Smart City & Smart Building

GARMENDIA ORBEGOZO, ASIER

Zuzendariak:
ANTON GONZALEZ,MIGUEL ANGEL;
NUÑEZ GONZALEZ, JOSE DAVID
Laburpena:

This thesis is framed on the topic of Machine Learning, where we have been focused on the refinement of different methods from the literature, and diverse applications related to Smart Cities and Edge Computing. Preciselly, the main contributions have been made by improving algorithms to ease their computation in resource constrained devices, establishing policies for orchestrating load distribution between these devices through long periods of time, opening the way to novel applications. Contributions are focused on: (1) Neural Network reduction, (2) Task offloading in Edge Computing and (3) Building prediction in Smart Cities.

Gehiago jakin...