Menua Webgunearen menua ireki/itxi

Titulo - Tesis defendidas

Defendatutako tesiak

Tabla tesis - TICRM

Indicadores
  Egungo doktorego programak Aurreko doktorego programak
Defendatutako tesiak 19 114
Sari bereziak - -
Doktorego tesiak kotutoretzan - -
Nazioarteko doktorego tesiak 13 22
Doktorego industrialak 2 -

 

XSLaren edukia

Egungo programan irakurritako tesiak

Técnicas para la mejora de la inteligibilidad en voces patológicas

SERRANO GARCIA, LUIS

Zuzendariak:
HERNAEZ RIOJA, INMACULADA CONCEPCION
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

Los laringectomizados son personas cuya laringe ha sido extirpada quirúrgicamente, normalmente como consecuencia de un tumor. Al tratarse éste de un órgano fundamental para la producción de la voz, pierden la capacidad de hablar. Sin embargo, muchas de ellas consiguen re-aprender a hablar de una manera distinta. Este tipo de habla se conoce como voz esofágica y es bastante distinta de la voz sana. Su naturalidad e inteligibilidad es menor hasta el punto de que ciertos oyentes tienen que hacer un esfuerzo para comprender lo que se les está diciendo. Esto supone un perjuicio en la calidad de vida de los laringectomizados ya que sus capacidades comunicativas se ven afectadas, no solo en las interacciones entre personas sino también en las interfaces hombre-máquina controladas por la voz. En esta tesis se abordan diferentes métodos para la mejora de la inteligibilidad de las voces alaríngeas de manera que palíen estos problemas. Un aspecto importante ha sido analizar las características propias de la voz esofágica. No es fácil encontrar el material necesario para hacer este análisis y los recursos disponibles son escasos. Esta tesis ha querido llenar este vacío mediante la grabación de una base de datos paralela de locutores esofágicos. Esta base de datos ha sido caracterizada acústicamente. Con este objetivo se ha comprobado los efectos que tiene el método de extracción de la frecuencia fundamental a la hora de analizar las características de las señales esofágicas. Se ha propuesto utilizar el análisis del residuo glotal ya que capta mejor las peculiaridades de este tipo de voces. Es necesario también disponer de algún método para evaluar de manera objetiva el impacto que tienen los métodos propuestos para mejorar la inteligibilidad. Con este propósito se ha implementado un reconocedor cuyas características y particularidades se recogen en este documento. Este ASR se validó participando en una evaluación de detección de términos hablados organizada por la Red Temática en Tecnologías del Habla. Para la mejora de la inteligibilidad de las voces esofágicas primero se han analizado diferentes algoritmos basados en las técnicas de conversión de voz existentes aplicadas a voces sanas. Se ha evaluado tanto el comportamiento de técnicas clásicas basadas en mezclas de Gaussianas como el de técnicas de conversión basadas en aprendizaje profundo. Por último, se han adaptado con éxito estas técnicas de conversión a las voces esofágicas. Estas conversiones se han evaluado de manera objetiva mediante el ASR construido, y subjetivamente mediante tests de preferencia. Aunque los resultados de las pruebas subjetivas exponen que para los oyentes no hay diferencias significativas entre las voces convertidas y las esofágicas originales, los resultados del reconocimiento automático muestran que las técnicas de conversión aplicadas a este tipo de voces consiguen disminuir la tasa de error obtenida.

Gehiago jakin...

Design and development of polymer optical fiber based platforms for glucose detection.

AZKUNE ULLA, MIKEL

Zuzendariak:
ALDABALDETREKU ETXEBERRIA, GOTZON;
BIKANDI IRAZABAL, IÑAKI
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

Tesi-lan honetan polimerozko zuntz optikoetan oinarritzen diren glukosa detekzioa egiteko bi plataforma aurkezten dira. Lehenik eta behin, tesiaren testuingurua deskribatzen da, horretarako biosentsoreen zein polimerozko zuntz optikoen oinarriak, garapen historikoa eta mugarri garrantzitsuenak azalduz. Ondoren, tesian zehar jorratzen diren detekzio tekniken azalpen teoriko bat egiten da, uhin ebaneszentea eta Raman espektroskopia zer diren azalduz. Horren ostean, lehen detekzio plataforma azaltzen da, U formako nukleo hutsezko polimerozko zuntz optikozko zunda bat erabiliz. Zunda honen gainazala fenilboroniko taldeekin funtzionalizatu eta Alizarin Red S izeneko koloratzailearekin kargatzen da. Honenbestez, zundaren ingurunean glukosa badago, glukosak koloratzailea desplazatu eta uhin ebaneszentearen xurgapenean aldaketak emango dira, glukosaren detekzioa gauzatuz. Honela, glukosa 0.1 mol/l-ko kontzentrazioan eta hainbat ingurune ezberdinetan detektatu da. Hurrengo kapituluan, bigarren detekzio plataforma azaltzen da, zuntz bidez anplifikaturiko Raman espektroskopian oinarritua. Kasu honetan, likidoz beteriko nukleodun polimerozko zuntz optiko mikroegituratuak diseinatu, fabrikatu eta hiru zuntzen arteko konparaketa egiten da. Kasurik onenean, 5 mmol/l-ko kontzentrazioan aurkitzen glukosaren zenbaketa limitea lortzen da ingurune urtsuan, erresoluzio nahikoa izanik SGLT2 inhibitore terapiaren jarraipena egiteko maila klinikoan. Azkenik, bi detekzio sistemak aplikazio errealetan erabiltzeko zein hobekuntza egin behar diren azaltzen da, esparru horietako lehen emaitza batzuk azalduz.

Gehiago jakin...

A reduced reference video quality assessment method for provision as a service over SDN/NFV-enabled networks

KOURTIS , MICHAIL ALEXANDROS

Zuzendariak:
KOUMARAS , CHARILAOS;
LIBERAL MALAINA, FIDEL
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

The proliferation of multimedia applications and services has generarted a noteworthy upsurge in network traffic regarding video content and has created the need for trustworthy service quality assessment methods. Currently, predominent position among the technological trends in telecommunication networkds are Network Function Virtualization (NFV), Software Defined Networking (SDN) and 5G mobile networks equipped with small cells. Additionally Video Quality Assessment (VQA) methods are a very useful tool for both content providers and network operators, to understand of how users perceive quality and this study the feasibility of potential services and adapt the network available resources to satisfy the user requirements.

Gehiago jakin...

Moving toward the intra-protocol de-ossification of TCP in mobile networks: Start-up and mobility

ATXUTEGI NARBONA, ENEKO

Zuzendariak:
LIBERAL MALAINA, FIDEL
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

El uso de las redes móviles de banda ancha ha aumentado significativamente los últimos años y se espera un crecimiento aún mayor con la inclusión de las futuras capacidades 5G. 5G proporcionará unas velocidades de transmisión y reducidos retardos nunca antes vistos. Sin embargo, la posibilidad de alcanzar las mencionadas cuotas está limitada por la gestión y rendimiento de los protocolos de transporte. A este respecto, TCP sigue siendo el protocolo de transporte imperante y sus diferentes algoritmos de control de congestión (CCA) los responsables finales del rendimiento obtenido. Mientras que originalmente los distintos CCAs han sido implementados para hacer frente a diferentes casos de uso en redes fijas, ninguno de los CCAs ha sido diseñado para poder gestionar la variabilidad de throughput y retardos de diferentes condiciones de red redes móviles de una manera fácilmente implantable. Dado que el análisis de TCP sobre redes móviles es complejo debido a los múltiples factores de impacto, nuestro trabajo se centra en dos casos de uso generalizados que resultan significativos en cuanto a afección del rendimiento: movimiento de los usuarios como representación de la característica principal de las redes móviles frente a las redes fijas y el rendimiento de la fase de Start-up de TCP debido a la presencia mayoritaria de flujos cortos en Internet. Diferentes trabajos han sugerido la importancia de una mayor flexibilidad en la capa de transporte, creando servicios de transporte sobre TCP o UDP. Sin embargo, estas propuestas han encontrado limitaciones relativas a las dependencias arquitecturales de los protocolos utilizados como sustrato (p.ej. imposibilidad de cambiar la configuración de la capa de transporte una vez la transmisión a comenzado), experimentando una capa de transporte "osificada". Esta tesis surge como respuesta a fin de abordar la citada limitación y demostrando que existen posibilidades de mejora dentro de la familia de TCP (intra-protocolar), proponiendo un marco para solventar parcialmente la restricción a través de la selección dinámica del CCA más apropiado. Para ello, se evalúan y seleccionan los mayores puntos de impacto en el rendimiento de los casos de uso seleccionados en despliegues de red 4G y en despliegues de baja latencia que emulan las potenciales latencias en las futuras capacidades 5G. Estos puntos de impacto sirven como heurísticas para decidir el CCA más apropiado en el propuesto marco. Por último, se valida la propuesta en entornos de movilidad con dos posibilidades de selección: al comienzo de la transmisión (limitada flexibilidad de la capa de transporte) y dinámicamente durante la transmisión (con una capa de transporte flexible). Se concluye que la propuesta puede acarrear importantes mejoras de rendimiento al seleccionar el CCA más apropiado teniendo en cuenta la situación de red y los requerimientos de la capa de aplicación.

Gehiago jakin...

Development of sensing technologies based on optical fibre from a new approach

ARRIZABALAGA URIARTE, OSKAR

Zuzendariak:
DURANA APAOLAZA, GAIZKA;
VILLATORO BERNARDO, AGUSTIN JOEL
Aipamenak:
Nazioarteko tesia
Kalifikazioa:
Bikain
Urtea:
2020
Laburpena:

En esta tesis doctoral se ha desarrollado una nueva tecnología para la fabricación de sensores interferométricos basados en fibra óptica monomodo estándar. Dichos sensores se caracterizan por ser de tamaño micrométrico y de alta sensibilidad y resolución. Los dispositivos sensores desarrollados presentan dimensiones micrométricas, y están basados en una micro-capa de polímero adherida al extremo de una fibra óptica monomodo. Dicha capa ofrece la posibilidad de controlar el patrón de interferencia en la fibra y, por lo tanto, su utilización en diferentes aplicaciones de sensado. Así, se han fabricado y evaluado experimentalmente diferentes muestras como sensores de temperatura, medidores de índice de refracción y sensores de humedad relativa. En los tres casos analizados, los resultados obtenidos han demostrado que, en cada prueba experimental realizada, el sensor proporcionó parámetros de velocidad de respuesta y resolución superiores a los ofrecidos por sus homólogos comerciales con los que se comparó. Además, se ha validado la posibilidad de fabricar dichos sensores de manera asequible y reproducible. Esta nueva tecnología de sensores basados en fibra óptica basados en interferometría resulta muy prometedora para el su empleo en aplicaciones de biosensado.

Gehiago jakin...

Design and validation of novel methods for long-term road traffic forecasting

LAÑA AURRECOECHEA,IBAI

Zuzendariak:
DEL SER LORENTE, JAVIER;
VELEZ ELORDI, MANUEL MARIA
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

Road traffic management is a critical aspect for the design and planning of complex urban transport networks for which vehicle flow forecasting is an essential component. As a testimony of its paramount relevance in transport planning and logistics, thousands of scientific research works have covered the traffic forecasting topic during the last 50 years. In the beginning most approaches relied on autoregressive models and other analysis methods suited for time series data. During the last two decades, the development of new technology, platforms and techniques for massive data processing under the Big Data umbrella, the availability of data from multiple sources fostered by the Open Data philosophy and an ever-growing need of decision makers for accurate traffic predictions have shifted the spotlight to data-driven procedures. Even in this convenient context, with abundance of open data to experiment and advanced techniques to exploit them, most predictive models reported in literature aim for shortterm forecasts, and their performance degrades when the prediction horizon is increased. Long-term forecasting strategies are more scarce, and commonly based on the detection and assignment to patterns. These approaches can perform reasonably well unless an unexpected event provokes non predictable changes, or if the allocation to a pattern is inaccurate. The main core of the work in this Thesis has revolved around datadriven traffic forecasting, ultimately pursuing long-term forecasts. This has broadly entailed a deep analysis and understanding of the state of the art, and dealing with incompleteness of data, among other lesser issues. Besides, the second part of this dissertation presents an application outlook of the developed techniques, providing methods and unexpected insights of the local impact of traffic in pollution. The obtained results reveal that the impact of vehicular emissions on the pollution levels is overshadowed

Gehiago jakin...

New perspectives and methods for stream learning in the presence of concept drift.

LOPEZ LOBO,JESUS

Zuzendariak:
BILBAO MARON, MIREN NEKANE;
DEL SER LORENTE, JAVIER
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

Applications that generate data in the form of fast streams from non-stationary environments, that is, those where the underlying phenomena change over time, are becoming increasingly prevalent. In this kind of environments the probability density function of the data-generating process may change over time, producing a drift. This causes that predictive models trained over these stream data become obsolete and do not adapt suitably to the new distribution. Specially in online learning scenarios, there is a pressing need for new algorithms that adapt to this change as fast as possible, while maintaining good performance scores. Examples of these applications include making inferences or predictions based on financial data, energy demand and climate data analysis, web usage or sensor network monitoring, and malware/spam detection, among many others. Online learning and concept drift are two of the most hot topics in the recent literature due to their relevance for the so-called Big Data paradigm, where nowadays we can find an increasing number of applications based on training data continuously available, named as data streams. Thus, learning in nonstationary environments requires adaptive or evolving approaches that can monitor and track the underlying changes, and adapt a model to accommodate those changes accordingly. In this effort, I provide in this thesis a comprehensive state-of-the-art approaches as well as I identify the most relevant open challenges in the literature, while focusing on addressing three of them by providing innovative perspectives and methods. This thesis provides with a complete overview of several related fields, and tackles several open challenges that have been identified in the very recent state of the art. Concretely, it presents an innovative way to generate artificial diversity in ensembles, a set of necessary adaptations and improvements for spiking neural networks in order to be used in online learning scenarios, and finally, a drift detector based on this former algorithm. All of these approaches together constitute an innovative work aimed at presenting new perspectives and methods for the field.

Gehiago jakin...

Millimetre wave communications in 5G networks under latency constraints: machine intelligence, application scenarios and perspectives.

PERFECTO DEL AMO, CRISTINA BEGOÑA

Zuzendariak:
BILBAO MARON, MIREN NEKANE;
DEL SER LORENTE, JAVIER
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

Nowadays there is little doubt that wireless communications have been a pivotal player in the irruption and maturity of digital technologies in almost all sectors of activity. Over the years, the society has witnessed how wireless networking has become an essential element of its evolution and prosperity. However, the ever-growing requirements of applications and services in terms of rate, reliability and latency have steered the interest of regulatory bodies towards emergent radio access interfaces capable of efficiently coping with such requisites. In this context, millimeter-wave (mmWave) communications have been widely acknowledged as a technology enabler for ultra-reliable, low-latency applications in forthcoming standards, such as 5G. Unfortunately, the unprecedented data rates delivered by mmWave communications come along with new paradigms in regards to radio resource allocation, user scheduling, and other issues all across the protocol stack, mainly due to the directivity of antennas and sensitiveness to blockage of communications held in this spectrum band. Consequently, the provision of machine intelligence to systems and processes relying on mmWave radio interfaces is a must for efficiently handling the aforementioned challenges. This Thesis contributes to the above research niche by exploring the use of elements and tools from Computational Intelligence, Matching Theory and Stochastic Optimization for the management of radio and network resources in mmWave communications. To this end, two different application scenarios are targeted: 1) Vehicular communications, where the high degree of mobility and the recurrent inter-vehicular blockage give rise to complex channel conditions for channel allocation and beam alignment; and 2) mobile virtual reality (VR), where the motion-to-photon latency limit raises the hurdle for scheduling the delivery of multimedia content over mmWave. A diversity of intelligent methods for clustering, predictive modeling, matching and optimization for dynamical systems are studied, adapted and applied to the aforementioned scenarios, giving evidences of the profitable advantages and performance gains yielded by these methods. The Thesis complements its technical contribution with a thorough overview of the recent literature of mmWave communications, leading to the main conclusion stemming from the findings of the Thesis: machine intelligence, provided by any technological means, is a driver to realize the enormous potential of mmWave for applications with unprecedented latency constraints.

Gehiago jakin...

Advances on Time Series Analysis using Elastic Measures of Similarity

OREGUI BRAVO, IZASKUN

Zuzendariak:
DEL SER LORENTE, JAVIER;
PEREZ MARTINEZ, ARITZ
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2020
Laburpena:

A sequence is a collection of data instances arranged in an structured manner. When this arrangement is held in the time domain, sequences are instead referred to as time series. As such, each observation in a time series represents an observation drawn from an underlying process, produced at a specific time instant. However, other type of data indexing structures, such as spaceor threshold-based arrangements are possible. Data points that compose a time series are often correlated to each other. To account for this correlation in data mining tasks, time series are usually studied as a whole data object rather than as a collection of independent observations. In this context, techniques for time series analysis aim at analyzing this type of data structures by applying specific approaches developed to harness intrinsic properties of the time series for a wide range of problems such as, classification, clustering and other tasks alike. The development of monitoring and storage devices has made time series analysis proliferate in numerous application fields including medicine, economics, manufacturing and telecommunications, among others. Over the years, the community has gathered efforts towards the development of new data-based techniques for time series analysis suited to address the problems and needs of such application fields. In the related literature, such techniques can be divided in three main groups: feature-, model- and distance- based methods. The first group (feature-based) transforms time series into a collection of features, which are then used by conventional learning algorithms to provide solutions to the task under consideration. In contrast, methods belonging to the second group (model-based) assume that each time series is drawn from a generative model, which is then harnessed to elicit information from data. Finally, distance-based techniques operate directly on raw time series. To this end, these latter methods resort to specially defined measures of distance or similarity for comparing time series, without requiring any further processing. Among them, elastic similarity measures (e.g., dynamic time warping and edit distance) compute the closeness between two sequences by finding the best alignment between them, disregarding differences in time gaps and thus focusing exclusively on shape differences. This Thesis presents several contributions to the field of distance-based techniques for time series analysis, namely: i) a novel multi-dimensional elastic similarity learning method for time series classification; ii) an adaptation of elastic measures to streaming time series scenarios; and iii) the use of distance-based time series analysis to make machine learning methods for image classification robust against adversarial attacks. Throughout the Thesis, each contribution is framed within its related state of the art, explained in detail and empirically evaluated. The obtained results lead to new insights on the application of distance-based time series methods for the considered scenarios, and motivates research directions that highlight the vibrant momentum of this research area.

Gehiago jakin...

Análisis del despliegue de comunicaciones de misión crítica sobre redes 4G y 5G

SANCHOYERTO MARTINEZ, AITOR

Zuzendariak:
LIBERAL MALAINA, FIDEL
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

El gran interés por la convivencia y la futura convergencia de las redes de seguridad pública en redes de misión crítica de banda ancha se refleja en el importante esfuerzo en publicaciones y normalización de los últimos años. Sin embargo, no se ha analizado la QoS (Calidad de servicio) de los nuevos servicios de misión crítica cuando se implementan en arquitecturas 4G / 5G. La principal motivación de este investigador es COMUNICARSE y hacerlo de la manera más rigurosa posible y que su MENSAJE contribuya al aumento de la confianza en los servicios de misión crítica (MC) desplegados en redes 4G, 5G de banda ancha, etc. El 3GPP se ha esforzado en horas, recursos y dinero en la estandarización de los servicios de emergencia de acuerdo con los requerimientos de las agencias PPDR (Public Protection Disaster Recovery). Para llevar a cabo esta investigación, que se presenta en esta publicación, se ha logrado reunir al equipo del proyecto FP7 GERYON, con quien, en julio de 2014, se pudo definir e implementar una arquitectura ALL-IP que permitió interoperar recursos conectados a redes de radio privadas. (TETRA) con usuarios registrados en redes de banda ancha LTE. En 2014, el 3GPP estaba construyendo los cimientos del estándar MCPTT (Push to Talk de misión crítica), pero cuando comenzó este proyecto en diciembre de 2011, era la OMA la que había desarrollado un estándar llamado POC (Push to Talk Over Cellular), precursor del MCPTT y que se implementó en GERYON. Después de GERYON, la vida profesional del equipo siguió caminos paralelos. El equipo del departamento de investigación de la UPV / EHU continuó trabajando en la estandarización de los servicios de misión crítica de 3GPP. Al igual que este proyecto, partió del PoC que tan bien conocían, colocando al departamento en un referente internacional en el estudio, desarrollo e implementación del estándar MCPTT de 3GPP. En enero de 2018 este investigador se incorporó a NQaS en la UPV / EHU. Se ha dispuesto de la gran oportunidad de utilizar para mi investigación una de las pocas redes operativas de banda ancha de misión crítica disponibles en todo el mundo. Como investigador se ha tenido el privilegio de poder analizar y medir el desempeño del servicio MCPTT. No es fácil para un investigador tener dicha infraestructura a menos que trabaje en el equipo que ha desarrollado e implementado una de ellas. La motivación para hacer esta investigación ha sido doble. Por un lado, tener el privilegio de poder testear todas las funcionalidades del servicio MCPTT que, a pesar de los nuevos requerimientos de datos exigidos por las organizaciones de seguridad, defensa y emergencia, sin duda seguirá siendo la piedra angular de las comunicaciones de cualquier organización. Por otro lado, como diseñador y desarrollador de soluciones en la tecnología precursora, ha permitido al investigador adquirir más rápidamente los conocimientos necesarios del servicio MCPTT para poder hacer propuestas de despliegues de este servicio con el objetivo de reducir las latencias del servicio. Un recurso debe poder establecer una nueva llamada en menos de 1000 ms, estar incluido en una llamada de grupo en menos de 300 ms y el tiempo entre un recurso que habla y su mensaje que llega a todos los miembros registrados de ese grupo no debe exceder los 300 ms. El trabajo reflejado en esta publicación es el resultado de estudiar el funcionamiento del servicio no solo a nivel funcional, sino sobre todo a nivel de protocolo de red (TCP / UDP), señalización (SIP) y datos (RTP, RTCP o sRTP).). Estos servicios se despliegan sobre redes de banda ancha que incluyen latencia de servicio, por lo que una parte importante del tiempo de investigación se ha centrado en el conocimiento detallado del canal de transporte y cómo éste puede afectar el cumplimiento de los indicadores de calidad. del servicio definido por el 3GPP para el servicio MCPTT. Esta tesis analiza el despliegue de las comunicaciones de misión crítica sobre redes de banda ancha. 4G y 5G. Partiendo de un escenario base de cálculo LTE se plantean diferentes estrategias de despliegue empleando tecnologías habilitadoras como NFV y SDN que harán posible que se puedan desplegar estos servicios en los extremos de la red del operador (MEC). El despliegue de los servicios cerca del usuario final reducirá los tiempos de latencia de comunicaciones y la separación del canal de control del de datos propuestos por CUPS permitirá al canal de control poder gestionar el incremento de ancho de banda disponible en 5G. Todas las estrategias de despliegue indicadas para 5G, se completará con la propuesta de despliegue sobre la arquitectura 5G NSA (Non Standalone) que permitirá reducir los tiempos de latencia de las comunicaciones en la parte radio de la arquitectura, además de beneficiarse de las tecnologías habilitadoras mencionadas que ahora forman parte de forma nativa de la arquitectura 5G. A diferencia de una arquitectura 5G SA (Standalone), en esta tesis hemos considerado como núcleo de red el EPC de la arquitectura 4G y no el nuevo núcleo 5G. (5GC). Por lo indicado en las líneas anteriores, en esta tesis comenzará abordando el funcionamiento de las redes de banda ancha sobre las que se pueden despliegan los servicios de misión crítica MCPTT: redes 4G y 5G NSA (Non Standalone), 5G SA (Standalone). Pero también se presentarán tecnologías habilitadoras que permiten la de virtualización de servicios (NFV), el despliegue de estos en el extremo de la red del operador (MEC), así cómo, la separación del canal de control del de los datos propuestos en CUPS ya se puede implementada en redes 4G gracias a SDN.

Gehiago jakin...

Advanced photonic sensors for industrial applications

AMOREBIETA HERRERO, JOSU

Zuzendariak:
DURANA APAOLAZA, GAIZKA;
VILLATORO BERNARDO, AGUSTIN JOEL
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

En esta tesis se han desarrollado diversos sensores basados en fibra óptica cuya finalidad es ofrecer una alternativa o solución a las necesidades particulares de la industria. En este contexto, las fibras ópticas y la fotónica en general son especialmente atractivas gracias a características intrínsecas que poseen, como su pequeño tamaño y alta sensibilidad, por ejemplo, lo que ha aumentado el interés por parte del sector industrial en esta tecnología. En la primera parte de la tesis, se describe el proceso llevado a cabo para el diseño y fabricación de sensores ópticos para la medida sin contacto del parámetro llamado Tip Clearance (TC) en motores aeronáuticos. El TC consiste en medir la distancia (del orden de micrómetros) entre los álabes que están girando a altas revoluciones y la carcasa del motor, y, por tanto, es un parámetro de suma importancia para la industria aeronáutica tanto a nivel de seguridad como de eficiencia del motor. Dichos sensores fueron puestos a pruebas en el túnel de viento del Centro de Tecnologías Aeronáutcas (Zamudio, Bizkaia) con buenos resultados. En la segunda parte de la tesis se han diseñado y fabricado sensores basados en fibra multinúcleo particularizados específicamente para la medida de diversos parámetros como la temperatura, vibraciones, curvatura, bending, etc. que son de interés para la industria. Dichos sensores mostraron una alta sensibilidad, lo que unido a su simplicidad y pequeño tamaño los convierte en una alternativa interesante tanto para su integración en cadenas de producción como para su uso en test de validación.

Gehiago jakin...

Estudio de la fiabilidad de capas físicas inalámbricas de 2.45 GHZ en entornos industriales mediante emulación de canal.

DIEZ BORGE VICTOR

Zuzendariak:
ARRIOLA BILBAO,AITOR;
VELEZ ELORDI, MANUEL MARIA
Aipamenak:
Cum Laude
Indistriako Tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

Las comunicaciones inalámbricas ocupan un papel fundamental dentro de la Industria 4.0. Sin embargo, su uso en entornos industriales, aunque cada vez más presente, sigue siendo residual si se compara con las comunicaciones cableadas. Esto se debe a que las propiedades físicas del entorno industrial generan unas condiciones de propagación que distan mucho de ser ideales, afectando negativamente a la fiabilidad de las comunicaciones. Cuando se desea desplegar un enlace inalámbrico en un entorno industrial, es necesario realizar una validación de la fiabilidad de las comunicaciones que de ciertas garantías de funcionamiento. Las metodologías actuales presentan deficiencias cuando son aplicadas en entornos industriales, las cuales se traducen en una la falta de reproducibilidad y una la falta de exactitud de los resultados de las validaciones respecto a los obtenidos posteriormente tras el despliegue. Por ello, en esta tesis se define una metodología para evaluar y validar la fiabilidad de las capas físicas de sistemas de comunicaciones inalámbricos empleados por nodos terminales en casos de uso industriales. Esta metodología considera las métricas adecuadas para evaluar la fiabilidad, los parámetros necesarios para definir correctamente el escenario de medida, los detalles del setup de laboratorio y el algoritmo de comunicación a emplear. Así mismo, se aplica la metodología propuesta para evaluar y validar la fiabilidad de tres capas físicas definidas por los estándares inalámbricos IEEE 802.15.4 y Bluetooth Low Energy. Ello ha permitido obtener resultados de fiabilidad de todas las capas físicas tanto para canales de propósito general como para canales puramente industriales. También se han obtenido expresiones matemáticas para predecir la fiabilidad de las capas físicas bajo los diferentes canales industriales. Por último, se han validado dichas capas físicas para tres casos de uso industrial generales.

Gehiago jakin...

QoE on media deliveriy in 5G environments

MARTIN NAVAS, ANGEL

Zuzendariak:
FLOREZ ESNAL, JULIAN;
MONTALBAN SANCHEZ, JON
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

5G expandirá las redes móviles con un mayor ancho de banda, menor latencia y la capacidad de proveer conectividad de forma masiva y sin fallos. Los usuarios de servicios multimedia esperan una experiencia de reproducción multimedia fluida que se adapte de forma dinámica a los intereses del usuario y a su contexto de movilidad. Sin embargo, la red, adoptando una posición neutral, no ayuda a fortalecer los parámetros que inciden en la calidad de experiencia. En consecuencia, las soluciones diseñadas para realizar un envío de tráfico multimedia de forma dinámica y eficiente cobran un especial interés. Para mejorar la calidad de la experiencia de servicios multimedia en entornos 5G la investigación llevada a cabo en esta tesis ha diseñado un sistema múltiple, basado en cuatro contribuciones. El primer mecanismo, SaW, crea una granja elástica de recursos de computación que ejecutan tareas de análisis multimedia. Los resultados confirman la competitividad de este enfoque respecto a granjas de servidores. El segundo mecanismo, LAMB-DASH, elige la calidad en el reproductor multimedia con un diseño que requiere una baja complejidad de procesamiento. Las pruebas concluyen su habilidad para mejorar la estabilidad, consistencia y uniformidad de la calidad de experiencia entre los clientes que comparten una celda de red. El tercer mecanismo, MEC4FAIR, explota las capacidades 5G de analizar métricas del envío de los diferentes flujos. Los resultados muestran cómo habilita al servicio a coordinar a los diferentes clientes en la celda para mejorar la calidad del servicio. El cuarto mecanismo, CogNet, sirve para provisionar recursos de red y configurar una topología capaz de conmutar una demanda estimada y garantizar unas cotas de calidad del servicio. En este caso, los resultados arrojan una mayor precisión cuando la demanda de un servicio es mayor.

Gehiago jakin...

Quarantine-mode based live patching for zero downtime safety-critical systems

MUGARZA INCHAUSTI, IMANOL

Zuzendariak:
JACOB TAQUET, EDUARDO JUAN;
PARRA MOLINA, JORGE
Aipamenak:
Cum Laude
Indistriako Tesia
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

En esta tesis se presenta una arquitectura y diseño de software, llamado Cetratus, que permite las actualizaciones en caliente en sistemas críticos, donde se efectúan actualizaciones dinámicas de los componentes de la aplicación. La característica principal es la ejecución y monitorización en modo cuarentena, donde la nueva versión del software es ejecutada y monitorizada hasta que se compruebe la confiabilidad de esta nueva versión. Esta característica también ofrece protección contra posibles fallos de software y actualización, así como la propagación de esos fallos a través del sistema. Para este propósito, se emplean técnicas de particionamiento. Aunque la actualización del software es iniciada por el usuario Updater, se necesita la ratificación del auditor para poder proceder y realizar la actualización dinámica. Estos usuarios son autenticados y registrados antes de continuar con la actualización. También se verifica la autenticidad e integridad del parche dinámico. Cetratus está alineado con las normativas de seguridad funcional y de ciber-seguridad industriales respecto a las actualizaciones de software. Se proporcionan dos casos de estudio. Por una parte, en el caso de uso de energía inteligente, se analiza una aplicación de gestión de energía eléctrica, compuesta por un sistema de gestión de energía (BEMS por sus siglas en ingles) y un servicio de optimización de energía en la nube (BEOS por sus siglas en ingles). El BEMS monitoriza y controla las instalaciones de energía eléctrica en un edificio residencial. Toda la información relacionada con la generación, consumo y ahorro es enviada al BEOS, que estima y optimiza el consumo general del edificio para reducir los costes y aumentar la eficiencia energética. En este caso de estudio se incorpora una nueva capa de ciberseguridad para aumentar la ciber-seguridad y privacidad de los datos de los clientes. Específicamente, se utiliza la criptografía homomorfica. Después de la actualización, todos los datos son enviados encriptados al BEOS. Por otro lado, se presenta un caso de estudio ferroviario. En este ejemplo se actualiza el componente Euroradio, que es la que habilita las comunicaciones entre el tren y el equipamiento instalado en las vías en el sistema de gestión de tráfico ferroviario en Europa (ERTMS por sus siglas en ingles). En el ejemplo se actualiza el algoritmo utilizado para el código de autenticación del mensaje (MAC por sus siglas en inglés) basado en el algoritmo de encriptación AES, debido a los fallos de seguridad del algoritmo actual.

Gehiago jakin...

Diseño de software para la instrumentación virtual de sensores ópticos en motores aeronáuticos

FERNANDEZ BELLO, RUBEN

Zuzendariak:
ALDABALDETREKU ETXEBERRIA, GOTZON;
DURANA APAOLAZA, GAIZKA
Kalifikazioa:
Oso ongi
Urtea:
2021
Laburpena:

En esta tesis se desarrolla un software robusto y versátil capaz de adquirir información de interés de un motor aeronáutico para después poder visualizarla, postprocesarla y analizarla. Este trabajo está relacionado con la aviónica y el desarrollo de esta tesis se espera aportar un instrumento que podría reducir el consumo de los motores aeronáuticos y, de esta manera, aumentar la autonomía. Asimismo, todo ello redundaría en la seguridad y la vida útil del motor. El parámetro a estudiar es el Tip Clearance del motor que representa el espacio libre entre las puntas de los álabes y la pared interior del motor, debido a que el rendimiento del motor disminuye cuando los álabes rozan con la pared o, por el contrario, dejan demasiado espacio libre. Como sensor se han utilizado sensores ópticos, una tecnología madura que posibilita la lectura de datos con gran nivel de detalle. El software se ha desarrollado en el entorno de programación de LabVIEW y se han usado equipos de adquisición de National Instruments para asegurar la compatibilidad entre software y hardware.

Gehiago jakin...

Neural combinatorial optimization as an enabler technology to design real-time virtual network function placement decision systems.

SOLOZABAL OCHOA DE RETANA, RUBEN

Zuzendariak:
BLANCO JAUREGUI, BEGOÑA;
LIBERAL MALAINA, FIDEL
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

The Fifth Generation of the mobile network (5G) represents a breakthrough technology for the telecommunications industry. 5G provides a unified infrastructure capable of integrating over the same physical network heterogeneous services with different requirements. This is achieved thanks to the recent advances in network virtualization, specifically in Network Function Virtualization (NFV) and Software Defining Networks (SDN) technologies. This cloud-based architecture not only brings new possibilities to vertical sectors but also entails new challenges that have to be solved accordingly. In this sense, it enables to automate operations within the infrastructure, allowing to perform network optimization at operational time (e.g., spectrum optimization, service optimization, traffic optimization). Nevertheless, designing optimization algorithms for this purpose entails some difficulties. Solving the underlying Combinatorial Optimization (CO) problems that these problems present is usually intractable due to their NP-Hard nature. In addition, solutions to these problems are required in close to real-time due to the tight time requirements on this dynamic environment. For this reason, handwritten heuristic algorithms have been widely used in the literature for achieving fast approximate solutions on this context. However, particularizing heuristics to address CO problems can be a daunting task that requires expertise. The ability to automate this resolution processes would be of utmost importance for achieving an intelligent network orchestration. In this sense, Artificial Intelligence (AI) is envisioned as the key technology for autonomously inferring intelligent solutions to these problems. Combining ÁREA LÍNE 1 2 0 3 0 4 ÁREA LÍNE 1 2 0 7 0 2 ÁREA LÍNE 3 3 2 5 9 9 ÁREA LÍNE AI with network virtualization can truly transform this industry. Particularly, this Thesis aims at using Neural Combinatorial Optimization (NCO) for inferring end solutions on CO problems. NCO has proven to be able to learn near optimal solutions on classical combinatorial problems (e.g., the Traveler Salesman Problem (TSP), Bin Packing Problem (BPP), Vehicle Routing Problem (VRP)). Specifically, NCO relies on Reinforcement Learning (RL) to estimate a Neural Network (NN) model that describes the relation between the space of instances of the problem and the solutions for each of them. In other words, this model for a new instance is able to infer a solution generalizing from the problem space where it has been trained. To this end, during the learning process the model takes instances from the learning space, and uses the reward obtained from evaluating the solution to improve its accuracy. The work here presented, contributes to the NCO theory in two main directions. First, this work argues that the performance obtained by sequence-to-sequence models used for NCO in the literature is improved presenting combinatorial problems as Constrained Markov Decision Processes (CMDP). Such property can be exploited for building a Markovian model that constructs solutions incrementally based on interactions with the problem. And second, this formulation enables to address general constrained combinatorial problems under this framework. In this context, the model in addition to the reward signal, relies on penalty signals generated from constraint dissatisfaction that direct the model toward a competitive policy even in highly constrained environments. This strategy allows to extend the number of problems that can be addressed using this technology. The presented approach is validated in the scope of intelligent network management, specifically in the Virtual Network Function (VNF) placement problem. This problem consists of efficiently mapping a set of network service requests on top of the physical network infrastructure. Particularly, we seek to obtain the optimal placement for a network service chain considering the state of the virtual environment, so that a specific resource objective is accomplished, in this case the minimization of the overall power consumption. Conducted experiments prove the capability of the proposal for learning competitive solutions when compared to classical heuristic, metaheuristic, and Constraint Programming (CP) solvers.

Gehiago jakin...

Advanced constellation and demapper schemes for next generation digital terrestrial television broadcasting systems

BARRUECO GUTIERREZ, JON

Zuzendariak:
ANGUEIRA BUCETA, PABLO;
MONTALBAN SANCHEZ, JON
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

Esta tesis presenta un nuevo tipo de constelaciones llamadas no uniformes. Estos esquemas presentan una eficacia de hasta 1,8 dB superior a las utilizadas en los últimos sistemas de comunicaciones de televisión digital terrestre y son extrapolables a cualquier otro sistema de comunicaciones (satélite, móvil, cable¿). Además, este trabajo contribuye al diseño de constelaciones con una nueva metodología que reduce el tiempo de optimización de días/horas (metodologías actuales) a horas/minutos con la misma eficiencia. Todas las constelaciones diseñadas se testean bajo una plataforma creada en esta tesis que simula el estándar de radiodifusión terrestre más avanzado hasta la fecha (ATSC 3.0) bajo condiciones reales de funcionamiento. Por otro lado, para disminuir la latencia de decodificación de estas constelaciones esta tesis propone dos técnicas de detección/demapeo. Una es para constelaciones no uniformes de dos dimensiones la cual disminuye hasta en un 99,7% la complejidad del demapeo sin empeorar el funcionamiento del sistema. La segunda técnica de detección se centra en las constelaciones no uniformes de una dimensión y presenta hasta un 87,5% de reducción de la complejidad del receptor sin pérdidas en el rendimiento. Por último, este trabajo expone un completo estado del arte sobre tipos de constelaciones, modelos de sistema, y diseño/demapeo de constelaciones. Este estudio es el primero realizado en este campo.

Gehiago jakin...

Fabricación de fibras ópticas de plástico microestructuradas para el desarrollo de sensores ópticos

ARROSPIDE ZABALA, ENEKO

Zuzendariak:
DURANA APAOLAZA, GAIZKA
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

En este trabajo de tesis se han desarrollado técnicas avanzadas para la fabricación de Fibras Ópticas de Plástico Microestructuradas (FOPM) de forma precisa y controlada. En un primer bloque se analizan las técnicas de taladrado profundo y de apilamiento de capilares, empleadas en la creación de preformas estructuradas de alta calidad, partiendo de cilindros monolíticos de polímeros de elevada calidad óptica. En el segundo bloque se detalla el proceso de estirado de las preformas a FOPM, donde es necesario un control absoluto de la unidad de calentamiento y estirado. Por último, en el tercer bloque se muestran algunas de las FOPM diseñadas y fabricadas validando su empleo en diversas aplicaciones que van desde sensores de curvatura, rotación o presión hasta biosensores de glucosa. Además, se ha incluido un apéndice que ofrece información adicional relativa a la torre de fabricación.

Gehiago jakin...

Análisis del impacto de las perturbaciones de canal sobre las tecnologías PLC de banda estrecha.

LLANO PALACIOS, ASIER

Zuzendariak:
ANGULO PITA, ITZIAR;
DE LA VEGA MORENO, DAVID
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2019
Laburpena:

La red eléctrica es un medio de comunicaciones complejo con propiedades que dependen tanto de la topología de la red como del patrón de uso de los dispositivos conectados. Estos dispositivos generan perturbaciones durante su operación habitual, que deben ser superadas por las tecnologías de transmisión a través de las líneas de baja tensión para asegurar la comunicación. Por esta razón, los comités de estandarización y los grupos de trabajo de organismos de regulación están reclamando información sobre este tema en el rango de frecuencias entre 2 y 150 kHz. Este estudio analiza la influencia de las perturbaciones de canal en el rendimiento de la capa física de las principales tecnologías PLC de banda estrecha aprobadas por organismos de estandarización habituales y desplegadas en Europa: PRIME 1.3.6, PRIME 1.4 y G3-PLC. La metodología de este trabajo aplica un método de prueba, unas métricas y un conjunto de perturbaciones representativas del canal de propagación, definidas y estandarizadas por el Instituto Europeo de Estándares de Telecomunicaciones (ETSI). Adicionalmente, la colección de ruidos utilizada en este estudio se completa con unas capturas de ruido tomadas en un entorno real con fuentes de energía distribuida o Distributed Energy Resources (DER). Este trabajo desarrolla un escenario de pruebas replicable, completamente automatizado y optimizado en coste, basado en un laboratorio innovador virtualizado denominado Virtual PLC Lab. El Virtual PLC Lab provee de un procedimiento de prueba donde un amplio rango de perturbaciones de canal puede ser emulado con precisión y en el cual el rendimiento de diversas tecnologías PLC puede compararse bajo las mismas condiciones. El trabajo de investigación se completa con la identificación de propuestas de mejora para las tecnologías PLC en estudio, las cuales son seleccionadas, implementadas y evaluadas de forma objetiva. Los resultados de este estudio ofrecen conclusiones de gran relevancia que pueden ser aplicadas en el desarrollo de las tecnologías PLC.

Gehiago jakin...

Doped polymer optical fibers for high performance fluorescent fiber applications.

PAROLA DOMINGO, ITXASO

Zuzendariak:
ILLARRAMENDI LETURIA, MARIA ASUNCION;
ZUBIA ZABALLA, JOSEBA ANDONI
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

La sociedad actual ha experimentado los mayores y más destacados avances tecnológicos desde la Revolución Industrial a finales del siglo XIX. El desarrollo en ámbitos como el transporte, las comunicaciones, la medicina o la producción de energía, entre otros, se ha convertido en el pilar principal del progreso global actual. En este contexto, esta tesis engloba el uso de fibras ópticas de plástico dopadas en dos áreas en pleno desarrollo y muy demandadas por la sociedad moderna: comunicaciones ópticas (láseres y amplificadores de fibra) y producción de energía sostenible (concentración de luz solar mediante fibras dopadas).

Gehiago jakin...

Expressive policy based authorization model for resource-constrained device sensors.

URIARTE ITZAZELAIA, MIKEL

Zuzendariak:
ASTORGA BURGO, JASONE;
JACOB TAQUET, EDUARDO JUAN
Aipamenak:
Cum Laude
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

Upcoming smart scenarios enabled by the Internet of Things (IoT) envision smart objects that expose services that can adapt to user behavior or be managed with the goal of achieving higher productivity, often in multistakeholder applications. In such environments, smart things are cheap sensors (and actuators) and, therefore, constrained devices. However, they are also critical components because of the importance of the provided information. Given that, strong security in general and access control in particular is a must. However, tightness, feasibility and usability of existing access control models do not cope well with the principle of least privilege; they lack both expressiveness and the ability to update the policy to be enforced in the sensors. In fact, (1) traditional access control solutions are not feasible in all constrained devices due their big impact on the performance although they provide the highest effectiveness by means of tightness and flexibility. (2) Recent access control solutions designed for constrained devices can be implemented only in not so constrained ones and lack policy expressiveness in the local authorization enforcement. (3) Access control solutions currently feasible in the most severely constrained devices have been based on authentication and very coarse grained and static policies, scale badly, and lack a feasible policy based access control solution aware of local context of sensors. Therefore, there is a need for a suitable End-to-End (E2E) access control model to provide fine grained authorization services in service oriented open scenarios, where operation and management access is by nature dynamic and that integrate massively deployed constrained but manageable sensors. Precisely, the main contribution of this thesis is the specification of such a highly expressive E2E access control model suitable for all sensors including the most severely constrained ones. Concretely, the proposed E2E access control model consists of three main foundations. (1) A hybrid architecture, which combines advantages of both centralized and distributed architectures to enable multi-step authorization. Fine granularity of the enforcement is enabled by (2) an efficient policy language and codification, which are specifically defined to gain expressiveness in the authorization policies and to ensure viability in very-constrained devices. The policy language definition enables both to make granting decisions based on local context conditions, and to react accordingly to the requests by the execution of additional tasks defined as obligations. The policy evaluation and enforcement is performed not only during the security association establishment but also afterward, while such security association is in use. Moreover, this novel model provides also control over access behavior, since iterative re-evaluation of the policy is enabled during each individual resource access. Finally, (3) the establishment of an E2E security association between two mutually authenticated peers through a security protocol named Hidra. Such Hidra protocol, based on symmetric key cryptography, relies on the hybrid three-party architecture to enable multi-step authorization as well as the instant provisioning of a dynamic security policy in the sensors. Hidra also enables delegated accounting and audit trail. Proposed access control features cope with tightness, feasibility and both dimensions of usability such as scalability and manageability, which are the key unsolved challenges in the foreseen open and dynamic scenarios enabled by IoT. Related to efficiency, the high compression factor of the proposed policy codification and the optimized Hidra security protocol relying on a symmetric cryptographic schema enable the feasibility as it is demonstrated by the validation assessment. Specifically, the security evaluation and both the analytical and experimental performance evaluation demonstrate the feasibility and adequacy of the proposed protocol and access control model. Concretely, the security validation consists of the assessment that the Hidra security protocol meets the security goals of mutual strong authentication, fine-grained authorization, confidentiality and integrity of secret data and accounting. The security analysis of Hidra conveys on the one hand, how the design aspects of the message exchange contribute to the resilience against potential attacks. On the other hand, a formal security validation supported by a software tool named AVISPA ensures the absence of flaws and the correctness of the design of Hidra. The performance validation is based on an analytical performance evaluation and a test-bed implementation of the proposed access control model for the most severely constrained devices. The key performance factor is the length of the policy instance, since it impacts proportionally on the three critical parameters such as the delay, energy consumption, memory footprint and therefore, on the feasibility. Attending to the obtained performance measures, it can be concluded that the proposed policy language keeps such balance since it enables expressive policy instances but always under limited length values. Additionally, the proposed policy codification improves notably the performance of the protocol since it results in the best policy length compression factor compared with currently existing and adopted standards. Therefore, the assessed access control model is the first approach to bring to severely constrained devices a similar expressiveness level for enforcement and accounting as in current Internet. The positive performance evaluation concludes the feasibility and suitability of this access control model, which notably rises the security features on severely constrained devices for the incoming smart scenarios. Additionally, there is no comparable impact assessment of policy expressiveness of any other access control model. That is, the presented analysis models as well as results might be a reference for further analysis and benchmarking. ¿ LABURPENA Gaur egun darabilzkigun hainbeste gailutan mikroprozesadoreak daude txertatuta, eragiten duten prozesuan neurketak egin eta logika baten ondorioz ekiteko. Horretarako, bai sentsoreak eta baita aktuadoreak erabiltzen dira (hemendik aurrera, komunitatean onartuta dagoenez, sentsoreak esango diegu nahiz eta erabilpen biak izan). Orain arteko erabilpen zabalenetako konekzio motak, banaka edota sare lokaletan konekatuta izan dira. Era honetan, sentsoreak elkarlanean elkarreri eraginez edota zerbitzari nagusi baten agindupean, erakunde baten prozesuak ahalbideratu eta hobetzeko erabili izan dira. Internet of Things (IoT) deritzonak, sentsoreak dituzten gailuak Internet sarearen bidez konektatu eta prozesu zabalagoak eta eraginkorragoak ahalbidetzen ditu. Smartcity, Smartgrid, Smartfactory eta bestelako smart adimendun ekosistemak, gaur egun dauden eta datozen komunikaziorako teknologien aukerak baliatuz, erabilpen berriak ahalbideratu eta eragina areagotzea dute helburu. Era honetan, ekosistema hauek zabalak dira, eremu ezberdinetako erakundeek hartzen dute parte, eta berariazko sentsoreak dituzten gailuen kopurua izugarri handia da. Sentsoreak beraz, berariazkoak, merkeak eta txikiak dira, eta orain arteko lehenengo erabilpen nagusia, magnitude fisikoren bat neurtzea eta neurketa hauek zerbitzari zentralizatu batera bidaltzea izan da. Hau da, inguruan gertatzen direnak neurtu, eta zerbitzari jakin bati neurrien datuak aldiro aldiro edota atari baten baldintzapean igorri. Zerbitzariak logika aplikatu eta sistema osoa adimendun moduan jardungo du. Jokabide honetan, aurretik ezagunak diren entitateen arteko komunikazioen segurtasuna bermatzearen kexka, nahiz eta Internetetik pasatu, hein onargarri batean ebatzita dago gaur egun. Baina adimendun ekosistema aurreratuak sentsoreengandik beste jokabide bat ere aurreikusten dute. Sentsoreek eurekin harremanak izateko moduko zerbitzuak ere eskaintzen dituzte. Erakunde baten prozesuetan, beste jatorri bateko erakundeekin elkarlanean, jokabide honen erabilpen nagusiak bi dira. Batetik, prozesuan parte hartzen duen erabiltzaileak (eta jabeak izan beharrik ez duenak) inguruarekin harremanak izan litzake, eta bere ekintzetan gailuak bere berezitasunetara egokitzearen beharrizana izan litzake. Bestetik, sentsoreen jarduera eta mantenimendua zaintzen duten teknikariek, beroriek egokitzeko zerbitzuen beharrizana izan dezakete. Holako harremanak, sentsoreen eta erabiltzaileen kokalekua zehaztugabea izanik, kasu askotan Internet bidez eta zuzenak (end-to-end) izatea aurreikusten da. Hau da, sentsore txiki asko daude handik hemendik sistemaren adimena ahalbidetuz, eta harreman zuzenetarako zerbitzu ñimiñoak eskainiz. Batetik, zerbitzu zuzena, errazagoa eta eraginkorragoa dena, bestetik erronkak ere baditu. Izan ere, sentsoreak hain txikiak izanik, ezin dituzte gaur egungo protokolo eta mekanismo estandarak gauzatu. Beraz, sare mailatik eta aplikazio mailarainoko berariazko protokoloak sortzen ari dira. Tamalez, protokolo hauek arinak izatea dute helburu eta segurtasuna ez dute behar den moduan aztertu eta gauzatzen. Eta egon badaude berariazko sarbide kontrolerako ereduak baina baliabideen urritasuna dela eta, ez dira ez zorrotzak ez kudeagarriak. Are gehiago, Gartnerren arabera, erabilpen aurreratuetan inbertsioa gaur egun mugatzen duen traba Nagusia segurtasunarekiko mesfidantza da. Eta hauxe da erronka eta tesi honek landu duen gaia: batetik sentsoreak hain txikiak izanik, eta baliabideak hain urriak (10kB RAM, 100 kB Flash eta bateriak, sentsore txikienetarikoetan), eta bestetik Internet sarea hain zabala eta arriskutsua izanik, segurtasuna areagotuko duen sarbide zuzenaren kontrolerako eredu zorrotz, arin eta kudeagarri berri bat zehaztu eta bere erabilgarritasuna aztertu.

Gehiago jakin...

Human exposure to electromagnetic fields from WLANs and WBANs in the 2.4 GHz band

FERNANDEZ ANDRES, MARTA

Zuzendariak:
ARRINDA SANZBERRO, AMAIA;
PEÑA VALVERDE, IVAN
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2018
Laburpena:

En los últimos años, el masivo crecimiento de las comunicaciones inalámbricas ha incrementado la preocupación acerca de la exposición humana a los campos electromagnéticos debido a los posibles efectos sobre la salud. Esta tesis surge de la necesidad de proporcionar información acerca de este tipo de exposición desde un punto de vista técnico. Por una parte, se han estudiado los niveles de exposición causados por señales WiFi, para lo cual ha sido necesario establecer un procedimiento de medida adecuado para tomar muestras de estas emisiones. Además, se han llevado a cabo campañas de medida para evaluar la exposición a señales WiFi y su variabilidad en el interior de un entorno público. Por otra parte, se ha analizado la potencia absorbida por el cuerpo humano a causa de los novedosos dispositivos wearables. Se han implementado dos antenas de este tipo, apropiadas para dispositivos wearables, se ha analizado detalladamente la exposición debida a estos aparatos y finalmente se han comparado los niveles de exposición producidos por estas antenas y por las señales WiFi.

Gehiago jakin...

Measuring quality of video of internet protocol television (IPTV)

SEDANO PEREZ, IÑIGO

Zuzendariak:
KIHL , MARIA;
PRIETO AGUJETA, GORKA
Aipamenak:
Nazioarteko tesia
Kalifikazioa:
Bikain
Urtea:
2020
Laburpena:

La motivación para el desarrollo de esta tesis es la necesidad que existe de monitorizar la calidad de experiencia del vídeo que se proporciona en una red IPTV (Internet Protocol Television). Esta necesidad surge del deseo de los operadores de telecomunicaciones de proporcionar un servicio más satisfactorio a sus clientes y alcanzar mayor penetración en el mercado. Los servicios sólo pueden tener éxito si la calidad de experiencia se garantiza. Las redes IPTV (Television sobre IP) son por naturaleza susceptibles a pérdidas de paquetes de datos que afectan a la calidad del vídeo que recibe el usuario. Entre los factores que contribuyen a la existencia de pérdida de paquetes de datos se encuentran la congestión de red, una planificación de red inadecuada o el fallo de algún equipamiento de la red. La calidad de experiencia de un vídeo se ve afectada por una serie de factores como por ejemplo la resolución, la ausencia de errores en las imágenes, la calidad de la televisión, las expectativas previas del usuario y muchos otros factores que se estudian en esta tesis. Es importante recalcar que en esta tesis se considera la calidad de experiencia, que es la percepción subjetiva del usuario, en contraste con métricas tradicionales como pérdidas de paquetes, retardo y jitter. Medir la calidad de experiencia en IPTV representa una innovación respecto a las soluciones tradicionales que se basan únicamente en parámetros de red. La medida subjetiva de la calidad, utilizando personas que evalúan el contenido es la más precisa. Sin embargo, es costosa, consume mucho tiempo y no es aplicable para realizar mediciones en tiempo real. Por esta razón existe el interés de desarrollar métodos objetivos que estimen esa calidad en base a parámetros relacionados con el vídeo. El objetivo principal de la tesis es proporcionar una solución para monitorizar la calidad de experiencia en una red IPTV. La degradación de la calidad del vídeo se puede deber al proceso de compresión o a errores en la transmisión del contenido. Aunque se considerará el proceso de compresión el estudio se centra principalmente en el proceso de transmisión. El estudio se centra en el códec H.264 por ser el más utilizado actualmente para contenidos de vídeo de alta definición. Con el propósito de clarificar algunos conceptos antes de explicar los objetivos secundarios se explica aquí el significado de métrica y los tipos de métricas existentes. Una métrica objetiva de calidad de vídeo intenta aproximar la percepción subjetiva del usuario evaluando parámetros relacionados con el vídeo. Las métricas objetivas se pueden clasificar en función de la información que se necesita del vídeo original sin distorsionar. Existen tres tipos de métricas objetivas: no-reference, reduced-referencia y full-reference. Las métricas no-reference son aquellas métricas en las que solamente el vídeo distorsionado se utiliza para calcular la calidad del vídeo. En las métricas reduced-reference, el vídeo original sin distorsionar no está disponible para la métrica, pero algunos parámetros extraídos de él sí están disponibles. En las métricas full-reference tanto el vídeo original sin distorsionar como el vídeo degradado están disponibles a la métrica objetiva que calcula la calidad del vídeo. Los tests subjetivos que implican utilizar personas para evaluar la calidad del vídeo constituyen el método más preciso. Sin embargo, requieren una preparación de las condiciones de visión, consumen mucho tiempo y no se pueden aplicar en monitorización en tiempo real de vídeo en redes IPTV. Esto ha provocado que muchos investigadores se centren en intentar desarrollar métodos objetivos. Al principio el foco de los investigadores estaba en métricas full-reference y cambió gradualmente a métricas reduced-reference y finalmente a métricas no-reference. La tesis comienza describiendo en detalle la estancia investigadora en Suecia, en RISE Research Institutes of Sweden AB en octubre de 2009, cuando aparece el interés en investigar en métricas de calidad de vídeo. A lo largo de la estancia en Suecia, que tiene lugar hasta mediados de 2011, se lleva a cabo una colaboración con el JEG (Joint Effort Group) del VQEG (Video Quality Experts Group), un grupo internacional de expertos en la temática de calidad de vídeo. Maria Kihl, directora de tesis de la Universidad de Lund, viaja frecuentemente de Lund a Estocolmo para dirigir los trabajos de investigación. Además, Kjell Brunnström, miembro del VQEG perteneciente a RISE donde se realiza la estancia proporciona consejo experto durante ese tiempo. A continuación, se describe el objetivo principal de la tesis que como hemos mencionado es proporcionar una solución para monitorizar la calidad de experiencia en una red IPTV. También se describen los objetivos secundarios que son los siguientes: - S01: Seleccionar la mejor métrica full-reference entre aquellas públicamente disponibles. Evaluar su aplicabilidad a redes IPTV en términos de rendimiento. - S02: Proporcionar una solución que combine tanto métricas full-reference como no-reference para monitorizar IPTV. - S03: Desarrollar y validar una métrica no-reference bitstream para redes IPTV. El siguiente punto en la tesis es la descripción de los conceptos básicos que se manejan en el proceso de investigar en métricas de calidad de vídeo. En concreto, tras una introducción, se explica en qué consiste una evaluación subjetiva, se detallan los diferentes tipos de métricas objetivas, se describen los diferentes tipos de degradación que pueden tener lugar en un vídeo y se explica el proceso tradicional de desarrollo de una métrica objetiva. A continuación, se realiza un repaso del estado del arte en cuanto a métricas objetivas existentes y se pasa a detallar las cuatro bases de datos subjetivas públicamente disponibles que se utilizan a lo largo de esta tesis. Las bases de datos subjetivas contienen vídeos a los que se les ha sometido a degradaciones y que han sido valorados por usuarios. En concreto se utilizan bases de datos de la Universidad de Nantes, de Ecole Polytechnique Fédérale de Lausanne y Politecnico di Milano y de Laboratory for Image and Video Engineering de la Universidad de Texas. El capítulo 3 de la tesis tiene como objetivo realizar una comparación entre las métricas full-reference existentes más utilizadas. En concreto se evalúan las siguientes métricas: Peak Signal-to-Noise Ratio (PSNR), Structural SIMilarity (SSIM), Multi-scale SSIM (MS-SSIM), Video Quality Metric (VQM), Visual Signal-to-Noise Ratio (VSNR), MOtion-based Video Integrity Evaluation (MOVIE). Mediante esta comparación se llega a la conclusión de que Video Quality Metric (VQM) es la mejor métrica full-reference entre las estudiadas. A continuación se describe una herramienta desarrollada por el autor de la tesis que sirve para reconstruir vídeos a los cuales les faltan imágenes. A menudo sucede que cuando un vídeo ha sufrido pérdidas de transmisión y se decodifica, el decoder no es capaz de reconstruir todas las imágenes. Este hecho dificulta aplicarle posteriormente al vídeo una métrica full-reference ya que ese tipo de métricas requiere que el vídeo original sin distorsión y el degradado contengan el mismo número de imágenes. Esta herramienta soluciona ese problema insertando unos números de imagen en el vídeo original sin degradar que se utilizan después para reconstruir el vídeo. En el capítulo 3.3 se describe la metodología necesaria para aplicar métricas full-reference a una red IPTV. En concreto se describen dos escenarios diferentes. El primero de ellos consiste en aplicar la métrica full-reference en el transmisor de vídeo y el segundo en aplicar la métrica full-reference en el receptor de vídeo. Se selecciona el primer escenario como el más interesante y se realiza un extenso estudio de rendimiento. Del estudio de rendimiento se desprende que no se puede a día de hoy monitorizar una red IPTV únicamente con métricas full-reference sino que es necesario combinar tanto métricas full-reference con métricas no-reference. La solución que se propone es utilizar métricas no-reference, que generalmente se pueden ejecutar con mayor rapidez aunque con menos precisión en los resultados en la mayor parte de los análisis y utilizar métricas full-reference en aquellos casos en que la aplicación de métricas no-reference dé lugar a dudas o en el caso de que exista un interés especial en tener mayor precisión. Se presenta una herramienta para visualizar mejor los resultados obtenidos en las pruebas de rendimiento realizadas, resultantes del escenario de aplicar full-reference en el transmisor de vídeo en una red IPTV. El capítulo 4 tiene varios objetivos. Por un lado se pretende desarrollar una métrica no-reference que se pueda utilizar en la solución para monitorizar una red IPTV que se propone en esta tesis. Por otro lado se propone una estrategia de desarrollo de modelos no-reference novedosa, ya que se encuentra basada en la aplicación de una métrica full-reference que sirve para crear la base de datos que se utilizará para entrenar el modelo no-reference. Este método se ha pensado para su aplicación en ámbitos reducidos en los cuales la precisión de las métricas full-reference es elevada. Suele suceder que sí se amplía mucho el ámbito de aplicación de una métrica, más allá de aquél para el cual fue desarrollada, se produce una pérdida de precisión en los resultados. El desarrollo de la métrica no-reference consta de varios pasos que se detallan en la tesis. En concreto el primer paso consiste en construir la base de datos de entrenamiento y validación. Para ello se obtiene los vídeos originales sin distorsionar de una base de datos de vídeos públicamente disponible, se codifican y se les aplican las condiciones de pérdidas de paquetes que se quieren considerar mediante un simulador de pérdidas de paquetes. Una vez generados los vídeos para generar las valoraciones de calidad se le aplica el método full-reference VQM, que es el que se ha seleccionado después de realizar la comparativa de métodos full-reference existentes. Esto es lo que constituye una novedad frente al desarrollo tradicional de modelos no-reference. Posteriormente se desarrolla el modelo con la mitad de los vídeos de la base de datos generada y se valida con la otra mitad. Una vez validado el modelo, finalmente con la base de datos completa se realiza una propuesta final de modelo no-reference. A continuación, en la tesis se listan todas las publicaciones del autor junto con un pequeño resumen de cada una de ellas. Entre las publicaciones del autor se encuentran las siguientes: Paper nº1: Sedano, I., Brunnström, K., Kihl, M., Aurelius, A., ¿Full-reference video quality metric assisted the development of no-reference bitstream video quality metrics for real-time network monitoring¿, EURASIP Journal on Image and Video Processing 2014 2014:4. Cited by 13. Paper nº2: Sedano, I.; Kihl, M.; Brunnstrom, K.; Aurelius, A., ¿Reconstruction of incomplete decoded videos for use in objective quality metrics¿, Systems, Signals and Image Processing (IWSSIP), 2012 19th International Conference on, pp.376,379, 11-13 April 2012. Cited by 1. Paper nº3: Sedano, I.; Kihl, M.; Brunnstrom, K.; Aurelius, A., ¿Evaluation of video quality metrics on transmission distortions in H.264 coded video¿, Broadband Multimedia Systems and Broadcasting (BMSB), 2011 IEEE International Symposium on, pp.1,5, 8-10 June 2011. Cited by 10. Paper nº4: M. Barkowsky, I. Sedano, K. Brunnström, M. Leszczuk, and N. Staelens, ¿Hybrid video quality prediction: reviewing video quality measurement for widening application scope,¿ Multimed. Tools Appl., vol. 74, no. 2, pp. 323¿343, 2015. Cited by 10. Paper nº5: Staelens, N.; Sedano, I.; Barkowsky, M.; Janowski, L.; Brunnstrom, K.; Le Callet, P, ¿Standardized toolchain and model development for video quality assessment ¿ The mission of the Joint Effort Group in VQEG¿, Quality of Multimedia Experience (QoMEX), 2011 Third International Workshop on, pp.61,66, 7-9 Sept. 2011. Cited by 19. Paper nº6: Brunnström, K., Wang, K., Sedano, I., Barkowsky, M., Kihl, M., Aurelius, A., Le Callet, P., and Sjöström, M., ¿2D no-reference video quality model development and 3D video transmission quality¿, Proc. 6th Inter. Workshop on Video Processing and Quality Metrics for Consumer Electronics, 2012. Cited by 5. Paper nº7: Geng Yu; Westholm, T.; Kihl, M.; Sedano, I.; Aurelius, A.; Lagerstedt, C.; Odling, P ¿Analysis and characterization of IPTV user behavior¿, Broadband Multimedia Systems and Broadcasting, 2009. BMSB '09. IEEE International Symposium on, pp.1,6, 13-15 May 2009. Cited by 22. Paper nº8: Barkowsky, M.; Staelens, N.; Janowski, L.; Koudota, Y.; Leszczuk M.; Urvoy, M.; Hummelbrunner, P.; Sedano, I.; Brunnström, K., ¿Subjective experiment dataset for joint development of hybrid video quality measurement algorithms¿, QoEMCS 2012 - Third Workshop on Quality of Experience for Multimedia Content Sharing, Berlin, Germany, 2012. Cited by 6. Paper nº9: Iñigo Sedano, Gorka Prieto, Kjell Brunnström, Maria Kihl, Jon Montalban, ¿Application of full-reference video quality metrics in IPTV¿, IEEE International Symposium on Broadband Multimedia Systems and Broadcasting 2017, June 2017. Las principales contribuciones de esta tesis son las siguientes: - En el capítulo 2 State of the art se ha generado mucha documentación con los conceptos fundamentales, se describen métricas objetivas, se menciona una contribución del autor de una aplicación para calcular la calidad de vídeo en base a un fichero XML generado por herramientas del VQEG (Video Quality Experts Group) y se describen las bases de datos de vídeos públicas utilizadas durante el desarrollo de la tesis. - En el capítulo 3 Selection and application of full-reference metric se han conseguido los siguientes logros: comparativa entre métricas full-reference públicamente disponibles, desarrollo de una aplicación para reconstruir videos decodificados incompletos y análisis de aplicabilidad de la recomendación ITU-R BT.1789 (replicación del escenario de la recomendación, realización de pruebas de rendimiento en distintas máquinas y desarrollo de una herramienta para visualizar los resultados gráficamente). - En el capítulo 4 Development of no-reference metric se generó una base de datos para entrenamiento y validación del modelo no-reference basándose en una métrica full-reference denominada VQM. Posteriormente con esas bases de datos se desarrolló el modelo no-reference bitstream real-time que se presenta en la tesis. Esto constituye una novedosa estrategia de desarrollo de modelos no-reference, al basarse su desarrollo en métricas full-reference. Del desarrollo de la tesis se extraen las siguientes conclusiones: - La monitorización de IPTV basada en métricas full-reference en el transmisor en presencia de pérdidas de paquetes se puede realizar solamente cuando se combina con otro tipo de evaluación (no-reference, hybrid o reduced-reference) de tal manera que solo los videos en los que exista duda o interés especial se evalúen con la métrica full-reference. - Del estudio de aplicabilidad de métricas full-reference en el receptor para monitorizar una red IPTV se deduce que esa técnica se puede utilizar hoy en día porque tiene la ventaja de procesamiento descentralizado de la calidad del vídeo (se puede hacer en los receptores). Sin embargo esta técnica tiene un inconveniente que es que requiere un ancho de banda adicional en la red y el uso de conexiones unicast dedicadas. - Una de las conclusiones es que es posible utilizar métricas full-reference para acelerar el desarrollo de métricas no-reference. En la tesis se explica como se puede realizar dicho procedimiento. - De la comparativa de métricas full-reference realizada en la tesis se extrae la conclusión de que la métrica full-reference VQM es la mejor métrica entre las estudiadas para el caso de referencia comprimida (se usa como referencia para la métrica el vídeo que se ha comprimido y descomprimido) y pérdidas de transmisión. También parece según el análisis que utilizar una referencia comprimida proporciona más precisión que utilizar una referencia que no se ha comprimido, cuando se estudian distorsiones causadas por pérdida de paquetes. Sin embargo, esta última conclusión debe ser confirmada por estudios futuros. Finalmente se mencionan las líneas futuras, que consisten fundamentalmente en el estudio de modelos híbridos no-reference donde se consideran tanto parámetros de red así como aquellos extraídos del vídeo como el propio vídeo decodificado.

Gehiago jakin...

Network-aware video streaming for future media internat

VIOLA , ROBERTO

Zuzendariak:
MARTIN NAVAS, ANGEL;
MONTALBAN SANCHEZ, JON;
ZORRILLA BERASATEGUI, MIKEL JOSEBA
Aipamenak:
Indistriako Tesia
Nazioarteko tesia

Power domain NOMA for 5G netwoeks and beyond/Potentzia domeinuko NOMA 5G sareetarako eta haratago

IRADIER GIL, ENEKO

Zuzendariak:
ANGUEIRA BUCETA, PABLO;
MONTALBAN SANCHEZ, JON
Aipamenak:
Cum Laude
Nazioarteko tesia
Kalifikazioa:
Bikain - Cum Laude
Urtea:
2021
Laburpena:

During the last decade, the amount of data carried over wireless networks has grown exponentially. Several reasons have led to this situation, but the most influential ones are the massive deployment of devices connected to the network and the constant evolution in the services offered. In this context, 5G targets the correct implementation of every application integrated into the use cases. Nevertheless, the biggest challenge to make ITU-R defined cases (eMBB, URLLC and mMTC) a reality is the improvement in spectral efficiency. Therefore, in this thesis, a combination of two mechanisms is proposed to improve spectral efficiency: Non-Orthogonal Multiple Access (NOMA) techniques and Radio Resource Management (RRM) schemes. Specifically, NOMA transmits simultaneously several layered data flows so that the whole bandwidth is used throughout the entire time to deliver more than one service simultaneously. Then, RRM schemes provide efficient management and distribution of radio resources among network users. Although NOMA techniques and RRM schemes can be very advantageous in all use cases, this thesis focuses on making contributions in eMBB and URLLC environments and proposing solutions to communications that are expected to be relevant in 6G.

Gehiago jakin...