About Us

 

 

News and Events 

 
Financiación:
 
HorizonEurope Innovation Project co-financed by the EC under Grant Agreement ID: 101070250.
 
Descripción:
 

While media organizations increasingly support non-linear experiences for the consumer, those are still limited to single channels and media domains. Although several media organizations have recently succeeded in breaking data silos, data sharing is mostly limited to the organization.

XReco will create a new data-driven ecosystem for the media industry, focusing on facilitating data sharing, search and discovery and supporting creation of news and entertainment content. The focus will be on the creation and (re-)use of location-related 2D and 3D assets and the creation of XR experiences. The ecosystem’s core, represented by a Neural Media Repository (NMR), will foster inter-organisation content sharing and provide increased access to content for media creators, considering novel data monetization and rights management policies. A set of AI-based media transformation services are built around the NMR to produce novel media-and XR experiences, including 3D neural reconstructions, neural based device localisation, image stitching, de-/re-lighting and holoportation.The developed technology will be validated in use case scenarios for the news media for XR-based broadcasting and automatic and customized multitarget news publishing, and for location-based information and entertainment content, with applications that also work in tourism and the automotive industry.

XReco will build an enabling technology and pave the way for lifting the use of XR media content from being occasionally involved in media production to being regularly integrated in the media industry.

 

Participantes:

ParticipantesXRECO

 

Duración:

01-September 2022 to 31-August 2025.

 DuracionXRECO

 

 
Financiación:
 
Grant PID2020-115132RB-I00 funded by MCIN/AEI/ 10.13039/501100011033.
 
Descripción:

One of the main challenges of immersive communication systems is how to deal with the complexity of an immersive representation of the scene, namely a volumetric representation which consists of texture description together with its geometrical characterization. Solutions based on current technology are unable to fulfil simultaneously the requirements set by SARAOS: extreme immersive feeling which requires high-quality volumetric video and real-time operation and interaction.

The objective of SARAOS is to build in real-time personalized and realistic XR spaces that will

smartly fuse the local reality (that of the local user) with distant realities (remote elements and persons the local users interact with) and virtual elements. Following a human-centric  approach, SARAOS will research on ambitious solutions for all the stages required for the provision of personal immersive communication: volumetric capture and representation, 3D scene analysis, compression, transmission schemes for these representations, novel blending and rendering algorithms, new natural interaction interfaces, and novel methodologies for interdisciplinary QUX assessment involving socio-emotional concepts and considering the impact of the gender dimension.   

 

Participantes:

Universidad Politécnica de Madrid.

Participantesenhanced

 

Duración:

01-September 2022 to 31-August 2025.

 DuracionSaraos

 

 
Financiación:
 
Project PI21/00351 from the Instituto de Salud Carlos III (Ministry of Economy, Industry and Competitiveness).
 
Descripción:

Acute bronchiolitis is the most common cause of respiratory distress in children under 2 years of age worldwide. Its severity and prognosis are variable. Currently, there is no effective therapy except supportive treatment. In recent years, the evolution and development of Artificial Intelligence and Deep Learning has led to an improvement in the processing and analysis of images and video that has demonstrated its applicability in medicine. Having a tool that helps establish the severity of bronchiolitis would improve the morbidity and mortality derived from this pathology.


VIBRA is a collaborative project between the Image Processing Group and the Hospital 12 de Octubre in Madrid. Its aim is to develop an application based on Computer Vision and Deep Learning techniques using video captured from a smartphone that can help categorise the severity of acute bronchiolitis through Respitratory Rate (RR) estimation.
  

 

Participantes:

Hospital Universitario 12 de Octubre, Universidad Politécnica de Madrid.

logo 12 de octubre vibra5   Participantesenhanced

 

Duración:

01- January 2021 to 31-December 2024.

 DuracionSaraos 

 

 
Financiación:
 
European Union’s Horizon 2020 research and innovation programme under Grant Agreement 957102
 
Descripción:
 
T5G-RECORDS aims to explore the opportunities which new 5G technology components bring to the professional audio-visual content production sector. 5G-RECORDS will build on 5G components developed within previous 5G-PPP projects and earlier R&D investments, and will further develop them for applications in content production, thus enforcing the industry roll-out of 5G. These components will be integrated, valuated, and demonstrated in three specific end-to-end 5G infrastructures that will serve as a 5G ecosystem including core network (5GC), radio access network (RAN) and end devices. The project will take a business-to-business (B2B) perspective, where 5G becomes part of the audio-visual infrastructure backbone. The project aims to use non-public networks (NPNs) as a way to bring these new components to the content production sector as well as to the emerging markets and new market actors. NPNs can be deployed either as independent and standalone 5G networks or in conjunction with a public network.
 
5G-RECORDS will consider 3 popular use cases that represent some of the most challenging scenarios in the framework of professional content production: 1) live audio production, 2) a multi-camera wireless studio and 3) live immersive media production. To ensure the successful demonstration of these use cases, the project brings together a set of experienced partners with the expertise that covers both 5G and content production value chains. The presence of SMEs is particularly strong as they represent 44.5% of the consortium. The technologies implemented in 5G-RECORDS will be based on existing 3GPP Rel-15 and Rel-16 specifications, while also prototyping some emerging Rel-17 capabilities. All technology components are expected to reach by the end of the project at least a Technology Readiness Level (TRL) of 7.   
 

Participantes:

The project brings together a wide range of experienced partners whose expertise covers both 5G and content production value chains. In particular, the consortium brings two 5G infrastructure owners (Ericsson and Nokia), four partners bringing 5G core technologies (Cumucore, RED Technologies, Accelleran and Image Matters) and one major telecom operator (Telefonica). The content production sector is represented by three major European public broadcasters (EBU, RAI and BBC) and two leading media technology companies (Sennheiser and Red Bee Media). The consortium also includes two universities (UPV and UPM) and one research centre (Eurecom). The project additionally counts on a strong external Advisory Board, whose role will be to monitor, evaluate and propose improvements to the work in progress and respond to the results achieved.

Participantes5GRecords

Duración:

01-September 2020 to 31-August 2022.

 Duracion5GRecords

 

 
Financiación:
 
EU EIT RawMaterials - European Institute of Technology (Innovation Project 16350)
 
Descripción:
 
The main objective of the project is to improve the performance of the existing downhole geophysical logging tools in the identification of specific minerals in the subsurface and mineral deposits evaluation.
The project will impact by boosting of the competitiveness, of the European raw materials companies and providing innovative solutions for a more efficient and sustainable exploration.
Innovative borehole logging tools based on recently developed sensors and innovative processing capabilities provide new opportunities for development of efficient downhole exploration tools suitable for detection and quantification of minerals and raw materials in the subsurface. Extensive testing of the tools’ performance first at research facilities and in mines is planned to demonstrate the efficiency of the new geophysical logging tools as high cost-effectiveness raw materials exploration tools and mineral diagnostic performance. 
 
The project will focus innovation activities on:
- Applying innovations on borehole geophysical logging to mining activities.
- Implementing new sensors in innovative borehole logging tools.
- Testing and validation in different types of mines.
- Design and preliminary testing of future logging tools.
- Training in the use of the innovative technologies.
 

Participantes:

Agencia Estatal Consejo Superior de Investigaciones Científicas (CSIC) Institut de Ciències de la Terra Jaume Amera (ES), Consell General de Cambres Oficials de Comerç, Indústria i Navegació de Catalunya (ES), Consiglio Nazionale delle Ricerche (IT), Geološki zavod Slovenije - GeoZS (SI), Sveriges Geologiska Undersökning (SE), Magnesitas Navarras S.A. (ES), Universitat Politècnica de Catalunya (ES), Universidad Politécnica de Madrid (ES)

Duración:

01-abril-2017 a 31-marzo-2020

 

 

 
Financiación:
 
Fundación para la Innovación y la Prospectiva en Salud en España (FIPSE), dentro de la Convocatoria 2017 de Ayudas para la Financiación de Estudios de Viabilidad de las Innovaciones en Salud (3143-17).
 
Descripción:
 
"Face Mirror" es una herramienta informática para el tratamiento de pacientes con afecciones motoras y sensitivas craneofaciales. La herramienta permitirá realizar, con estos pacientes, diferentes ejercicios/movimientos o intervenciones de reeducación sensitiva que en la actualidad no son posibles para esta zona del cuerpo.  
 

Participantes:

Fundación para la Investigación Biomédica del Hospital Universitario La Paz; Universidad Politécnica de Madrid; Antares Consulting.

Duración:

01-febrero-2018 a 31-julio-2018 

 

 

 
Financiación:
 
Ministerio de Economía, Industria y Competitividad, a través de la Agencia Estatal de Investigación (AEI), dentro del Plan Estatal de Investigación Científica y Técnica y de Innovación 2013-2016, Programa Estatal de Investigación, Desarrollo e Innovación orientada a los Retos de la Sociedad, Retos Investigación 2016 (TEC2016-75981-C2-1-R); y el Fondo Europeo de Desarrollo Regional (FEDER) en su Convocatoria 2016.
 
Descripción:
 
The project aims at pushing forward the technologies involved in omnidirectional video processing algorithms for analysis and encoding making contributions in the areas of acquisition, characterization, compression, delivery, visualization, and interaction of audiovisual media able to allow immersion perception. Stemming from this main objective, several topics helping the production and delivery of immersive video content are considered. These topics have been chosen to correspond to on-going lines of research of the project team. Activities within video analysis cover camera calibration, detection and tracking of significant elements, and mixed/augmented 3D scene modeling and composition. With respect to data representation, multiview-based approaches seem to be the key alternatives for the description and compression of visual 3D media and, on data distribution, smart content delivery, transmission error protection and quality evaluation are the targets. Finally, there are several tasks on visualization and interaction to achieve immersive perception.  
 

Participantes:

Universidad Politécnica de Madrid.

ParticipantesIVME

Duración:

30-diciembre-2016 a 29-diciembre-2019

 DuracionIVME

 

 
Financiación:
 
Ministerio de Economía y Competitividad, dentro del Plan Estatal de Investigación Científica y Técnica y de Innovación 2013-2016, Programa Estatal de Investigación, Desarrollo e Innovación Orientada a los Retos de la Sociedad, Retos-Colaboración 2016 (RTC-2016-5676-7); y Fondo Europeo de Desarrollo Regional (FEDER) en su Convocatoria 2016.
 
Descripción:
 
El "cloud gaming" es un tipo de videojuego en línea que permite la transmisión directa y bajo demanda de contenido Audio-Visual (AV) al dispositivo cliente, que puede tener poca capacidad de cálculo, porque es en el servidor del proveedor de contenido donde se almacena y ejecuta el juego. El servidor también codifica y transmite en tiempo real el contenido AV resultante de las acciones del usuario, cuyo cliente sólo tiene que recibirlo y decodificarlo.

El objetivo del proyecto "Open Graphics Gaming Cloud" (OGGC) es desarrollar los sistemas, la arquitectura y los algoritmos necesarios para abrir una plataforma de "cloud gaming" a mercados donde aún no es posible llegar por tecnología o falta de exposición, para su posterior explotación comercial mediante dicha plataforma, aumentando el número de usuarios potenciales, y por tanto la posición de PlayGiga en un mercado tan complicado pero a la vez tan potencialmente lucrativo como el del entretenimiento digital. Desde el punto de vista técnico se deben abordar tres objetivos principales: 1) optimizar la solución mediante la reducción del ancho de banda necesario, basándose en nuevos algoritmos para la compresión de vídeo y la adecuación del consumo de ancho de banda a cada juego y dispositivo cliente; 2) adaptar la solución a las distintas tarjetas para computación en la nube disponibles en el mercado mediante una capa de abstracción; 3) construir un canal AV a partir de contenidos de videojuegos generados por una plataforma de "cloud gaming". 
 

Participantes:

PlayGiga; Agile Content; Universidad Politécnica de Madrid.

Duración:

01-mayo-2016 a 31-diciembre-2018

 

 

 
Financiación:
 
Ministerio de Economía y Competitividad, dentro del Plan Estatal de Investigación Científica y Técnica y de Innovación 2013-2016, Programa Estatal de Investigación, Desarrollo e Innovación orientada a los Retos de la Sociedad, Retos-Colaboración 2015 (RTC-2015-4133-7); y Fondo Europeo de Desarrollo Regional (FEDER) en su Convocatoria 2015.
 
Descripción:
 
El objetivo del proyecto es el diseño, implementación y calibrado de un sistema de monitorización de calidad de experiencia (QoE) aplicable a servicios de distribución de vídeo segmentado en tiempo real, construyendo una solución tecnológica completa que pueda desplegarse en la próxima generación de servicios de distribución de vídeo por redes IP.
 
Se pretende diseñar un sistema que pueda monitorizar de forma efectiva el escenario emergente de acceso OTT (Over The Top) a contenidos de alta calidad. La principal característica técnica de este escenario es el manejo del vídeo segmentado en fragmentos de unos pocos segundos de duración, para poder adaptarse mejor a la calidad variable de medios OTT, empleando típicamente tecnologías de distribución HAS (HTTP Adaptive Streaming).
 

Participantes:

Alcatel-Lucent España, S.A.; Universidad Politécnica de Madrid.

Duración:

01-septiembre-2015 a 28-febrero-2019

 

 

 
Financiación:
 
The Centro para el Desarrollo Tecnológico Industrial (CDTI) under the program "Proyectos de I+D Individuales".
 
Descripción:
 
The main objective of this project is the development of a platform capable of transforming the multimedia content in real time to the new adaptive streaming formats: HTTP Adaptive Streaming format (HLS) developed by Apple, Smooth Streaming format (MSS) released by Microsoft and the format defined by the international standard MPEG-DASH.
 
This platform will be able to ingest a content at a specific format. It will make the necessary transformations of the original media content and its associated metadata file in real-time with the aim of providing a video service for a wide range of user’s devices in a Content Distribution Network (CDN). Therefore, the project TRANVIDEOADAP proposes an alternative solution for entertainment TV using an architecture based on the cloud.
 

Participantes:

Nokia (former Alcatel-Lucent España, S.A.); Universidad Politécnica de Madrid.

Duración:

01-julio-2015 a 31-julio-2017

 

 
Financiación:
 
Ministerio de Economía y Competitividad, dentro del Plan Estatal de Investigación Científica y Técnica y de Innovación 2013-2016, Programa Estatal de Investigación, Desarrollo e Innovación orientada a los Retos de la Sociedad, Retos-Colaboración 2015 (RTC-2015-3527-1).
 
Descripción:
 
BEGISE tiene como objetivo general incorporar las tecnologías relativas al Video Content Analysis para proporcionar la capacidad de analizar e interpretar las escenas típicas al escenario de escaleras mecánicas en un contexto de aplicaciones de vigilancia. Para ello, se pretende desarrollar una plataforma que disponga de unidades de procesamiento dispuestas remotamente en las estaciones, y que aplicando tecnologías de visión artificial e inteligencia artificial genere alarmas en tiempo real en el momento que se produzca un mal uso de la escalera o cuando está sufriendo un mal funcionamiento.
 
Se desarrollará un centro de gestión de alarmas que gestione, almacene y procese estas informaciones provenientes de las unidades remotas para facilitar el consumo de la información a los operadores de seguridad o centros de recepción de alarmas (CRA). De esta forma el personal encargado de velar por la seguridad de los usuarios de la zona pueda actuar inmediatamente después de producirse la anomalía y evitar de esta forma un posible accidente.
 

Participantes:

Dominion; Visual Line; Vicomtech-IK4; Universidad Politécnica de Madrid; Euskal Trenbide Sareak.

Duración:

01-marzo-2015 a 31-diciembre-2017

 

                                                                                                                      
Financiación:
 
Ministerio de Economía y Competitividad, dentro del Plan Estatal de Investigación Científica y Técnica y de Innovación 2013-2016, Programa Estatal de Investigación, Desarrollo e Innovación orientada a los Retos de la Sociedad, Retos Investigación 2013 (TEC2013-48453-C2-1-R).
 
Descripción:
 
Este proyecto se propone apoyar el avance de las tecnologías empleadas en el tratamiento de imágenes y vídeo para análisis y compresión de información con realidad mixta, proponiendo nuevos algoritmos que contribuyan en las áreas de adquisición, caracterización, compresión, distribución y visualización de materiales audiovisuales con realidad mixta. Desde este objetivo principal surgen diversas áreas para apoyar el desarrollo de la realidad mixta. Estos temas han sido elegidos para corresponder con líneas de actividad actuales del equipo del proyecto. Las actividades dentro del análisis de vídeo cubren calibración de cámaras, detección y seguimiento de objetos significativos, computación perceptual, caracterización del entorno, modelado de escenas e interpretación de escena. El foco principal en representación y distribución está en ultra alta definición y los objetivos son algoritmos de compresión, implementaciones paralelas, en tiempo real y eficientes desde el punto de vista energético, streaming adaptativo, y evaluación de la calidad. Además, hay varias tareas en visualización para la presentación de la realidad mixta.
 

Participantes:

Universidad Politécnica de Madrid.

Duración:

01-enero-2014 a 31-diciembre-2016

 

 
Financiación:
 
STREP 610691 del 7º Programa Marco de la CE.
 
Descripción:
 
BRIDGET will open new dimensions for multimedia content creation and consumption by enhancing broadcast programmes with bridgets: links from the programme you are watching to external interactive media elements such as web pages, images, audio clips, different types of video (2D, multi-view, with depth information, free viewpoint) and synthetic 3D models.
Bridgets can be: 
 
- Created automatically or manually by broadcasters, either from their own content (e.g., archives, Internet and other services) or from wider Internet sources. 
- Created by end users, either from their local archives or from Internet content. 
- Transmitted in the broadcast stream or independently. 
- Filtered by a recommendation engine based on user profile, relevance, quality, etc.
- Enjoyed on the common main screen or a private second screen, in a user-centric and immersive manner, e.g., within 3D models allowing users to place themselves inside an Augmented Reality (AR) scene at the exact location from which the linked content was captured. 
 
To deliver the above, BRIDGET will develop: 
 
- A hybrid broadcast/Internet architecture. 
- A professional Authoring Tool (AT) to generate bridgets and dynamic AR scenes with spatialised audio. 
- An easy-to-use AT for end users. 
- A player to select bridgets, and consume and navigate the resulting dynamic AR scenes.
 
 
The AT and player will use a range of sophisticated and innovative technologies extending state-of-the-art media analysis and visual search, and 3D scene reconstruction, which will enable customised and context-adapted hybrid broadcast/Internet services offering enhanced interactive, multi-screen, social and immersive content for new forms of AR experiences. BRIDGET tools will be based on and contribute to international standards, thus ensuring the creation of a true horizontal market and ecosystem for connected TV and contributed media applications.
 

Participantes:

University of Surrey (UK); CEDEO SAS di Chiariglione Leonardo e C (IT); Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung (DE); Huawei Technologies Düsseldorf GmbH (DE); Institut Mines-Télécom (FR); RAI-Radiotelevisione Italiana SpA (IT); Telecom Italia SpA (IT); Universidad Politécnica de Madrid (ES); Visual Atoms Ltd (UK).

Duración:

01-noviembre-2013 a 31-octubre-2016

 

 

 
Financiación:
 
EU Programme Eureka CATRENE (CA111).  
 
Descripción:
 
The project aims at studying and setting up an end-to-end 4K Ultra HDTV chain (broadband and/or broadcast) for use at consumer premises and/or at dedicated show-points. The required bandwidth and activities over the chain being at least 4 times more than for full HDTV, the main challenges here are to study and develop ICs implementing new codecs more efficient in term of bandwidth with improved and additional features. The project consortium is composed of partners over the value chain, from content creation to display at home, including IC vendors and academics very active in the standardization bodies.

Participantes:

Hispasat (ES); SAPEC (ES); RTVE (ES); Universidad Politécnica de Madrid (ES); Barco (BE); mediAVentures (BE); Arçelik (TR); Alioscopy (FR); Arte (FR); Binocle3D (FR); Pace (FR); ST life.augmented (FR); Technicolor (FR); Thomson (FR); Université de Nantes (FR); VITEC (FR).

Duración: 

01-abril-2013 a 31-marzo-2016

 

 
Financiación:
 
Entidad Pública Empresarial Centro para el Desarrollo Tecnológico Industrial (CDTI), del Ministerio de Economía y Competitividad, en su línea de actuación Proyectos de Investigación y Desarrollo - Proyectos de Cooperación Tecnológica.Programa Eureka Celtic-Plus.
 
Descripción:
 
The project aims at investigating the hybrid distribution of TV programs and services over Broadcast and Broadband networks. The technology used for the contents compression is the future video compression standard: High Efficient Video Codec (HEVC). The hybrid network and the HEVC standard will allow defining new added value services. H2B2VS proposes a solution to cope with the problem of limited bandwidth on both networks by using the Broadcast network to transmit the main information and the Broadband network to transmit the additional information which can even be interactive. HEVC will also be used to reduce the required bit rate. One of the major technical challenges the project will have to face will be the difference in the Quality of Service encountered on these two types of networks. On Broadcast networks, all parameters are fully controlled by the operator. In contrast, on Broadband networks based on IP technology, parameters such as delay or jitter are not fully mastered. Synchronization between the two networks will thus be a key issue to be solved by the project. New services will be implemented using the results obtained in the H2B2VS project. Among them, we can mention broadcasting a program on the terrestrial network and sending its complementary information for Ultra-HD over the IP network, or using the Broadband network to carry out the sign language translation of a broadcast program to help deaf people.
 

Participantes:

Acatel-Lucent España SA (ES); Basari Mobile (TR); Civolution (FR); Digiturk (TR); Ecole Polytechnique Fédérale Lausanne (CH); HES-SO Yverdon (CH); HISPASAT (ES); INSA / IETR (FR); NAGRA France (FR); Nagravision (CH); Neusoft Mobile Solutions (FI); SmartJog SAS (FR); TDF SAS (FR); Tampere University of Technology (FI); Teleste Corporation (FI); Thomson Video Networks (FR); Turk Telekom Argela (TR); Universidad Politécnica de Madrid (ES); Vestel Electronics (TR); VTT Technical Research Centre of Finland (FI).

Duración:

01-enero-2013 a 31-octubre-2015

 

 

 
Financiación:
 
EU Programme Eureka Itea2 (ITEA2-11012).
 
Descripción:
 
Current TV services are evolving rapidly; mid- and longterm convergence of TV and Internet will definitely change the way we all watch TV. On one hand, it will offer the end user more new interactive and pleasing capabilities; on the other, broadcasters and operators will face a new value chain where newcomers can take advantage of the Internet and software technologies to offer end users customised advertising and targeted content, associated with personalised content. This profoundly affects the business model of current broadcasters who still adopt a relatively static end-to-end approach. Cloud architecture and services are the key aspect of this enticing new business model for future TV programme makers. Dematerialised infrastructure and software-intensive systems will offer newcomers affordable solutions to compete efficiently against traditional broadcasters. The ICARE project explored this domain by demonstrating a way of using the cloud to transport, process, deliver and protect content over a distributed, non-proprietary and adaptive architecture; and contributed to several standardisation bodies: MPEG-DASH, IETF, ITU-T and OneM2M.
 
Particularly, UPM studied the use of the adaptive streaming technology for delivering audiovisual contents in Cloud architectures, and addressed the analysis, design and optimization of control algorithms over adaptive streaming players.
 

Participantes:

AGMLab Information Technologies Ltd. (TR); Alcatel-Lucent (ES); Basari Mobile (TR); Broadpeak (FR); Civolution (NL); Institut Mines-Télécom (FR); Maxisat Yhtiöt Oy (FI); Neusoft Mobile Solutions Oy (CN); Planet Media (ES); Qbrick (JP); RTL BCE (LU); SAPEC (ES); Sanoma News (FI); Silkan (FR); Stereoscape (FI); Universidad Politécnica de Madrid (ES); Technicolor (FR); Thales Communicatios and Security (FR); Thomson Networks SAS (FR); Tribe Studios Ltd. (FI) ; Universidad Politécnica de Valencia (ES); VTT Technical Research Centre of Finland Ltd.(FI).

Duración:

01-junio-2012 a 31-febrero-2015

 

 

 
Financiación:
 
Ministerio de Economía y Competitividad, dentro del Subprograma INNPACTO 2012 (IPT-2012- 0306-430000).
 
Descripción:
 
El objetivo principal de este proyecto es el desarrollo de una plataforma que proporcione servicios de distribución de vídeo y televisión por IP (IPTV) para terminales 3G/LTE/4G a través de la tecnología basada en femtoceldas. El cliente de estos servicios se basa en la tecnología HTTP Adaptive Streaming (HAS) y está formado por un conjunto de módulos que se encargan de la selección, petición, recepción, buffering y reproducción de los segmentos en que se divide el contenido multimedia, en función de las características del escenario en el que se produce la transmisión.
 
A continuación se enumeran los objetivos específicos del proyecto:
- Garantizar la disponibilidad de ancho de banda para la distribución de contenidos de vídeo e IPTV por la red móvil gracias a la utilización de femtoceldas.
- Mejorar la cobertura de distribución de contenidos de vídeo por banda ancha.
- Conferir movilidad, aprovechando esta característica de las redes de telecomunicaciones móviles.
- Diseñar el esquema de petición de calidades empleado por el cliente. Mediante la utilización eficiente de los recursos de la red y de la capacidad del dispositivo final, este algoritmo de adaptación persigue maximizar la calidad media solicitada, minimizar el número de interrupciones en la reproducción debido a under-buffering y proporcionar una calidad estable, con mínimos cambios de calidad, a pesar de existir fluctuaciones en la capacidad de red.
- Mejorar la calidad de la experiencia del usuario con móviles de nueva generación (3G/LTE/4G) en entornos masificados (instalaciones, accesos, transportes, etc.) gracias al desarrollo de sistemas de codificación y algoritmos de adaptación para la petición de calidades de segmento adecuados en cada escenario considerado.
 

Participantes:

Alcatel-Lucent España, S.A.; SAPEC; Universidad Politécnica de Madrid.

Duración:

01-junio-2012 a 28-febrero-2015

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma Avanza Contenidos Digitales (TSI-090100-2011-0019). 
 
Descripción:
 
El propósito principal del proyecto es el diseño e implementación de una plataforma multisoporte de emisión de vídeo sobre IP basándose en la tecnología de “IP SPLICE STREAM” con aplicación sobre plataformas DVB-T, plataformas IPTV y plataformas híbridas. Se propone el diseño e implementación de un sistema de recomendación de contenidos y de publicidad teniendo en cuenta el tipo de contenidos consumidos por el usuario, su perfil y su geolocalización. La plataforma de distribución de contenidos publicitarios hará un uso eficiente del ancho de banda disponible gracias a la tecnología de red que se plantea. El proyecto considerará la convergencia de las plataformas actuales donde se emiten y consumen contenidos y la integración sobre cualquier tipo de terminal. Entre los objetivos particulares del proyecto se encuentran:
- El desarrollo de tecnología de video splicing sobre IP basándose en las normas DVB actualmente estandarizadas para su integración en servicios de DVB-T y de DVB-IPTV.

- El despliegue de un caso de uso que utilice dicha tecnología para la personalización de la publicidad a nivel nacional. 

Participantes:

Alcatel-Lucent España, S.A.; Andstream, S.L.; Movilidad, Ingeniería, Software y Seguridad, S.L.(INNOVAE); Planet Media Studios, S.L.; Universidad Politécnica de Madrid.

Duración: 

01-julio-2011 a 31-mayo-2014

 

 
Financiación:
 
Ministerio de Ciencia e Innovación, desde 2012 Ministerio de Economía y Competitividad, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma INNPACTO (IPT-2011-1347-430000).
 
Descripción:
 
El objetivo principal de este proyecto es el diseño y desarrollo de tecnologías de sondeo de contenidos y aplicaciones multimedia que pueda ser gestionada de forma automática y remota, y que permita obtener información relativa a la calidad de experiencia (QoE) del usuario.
 
Los resultados de proyecto permitirán conocer la calidad de una secuencia de vídeo con objeto de llevar a cabo evaluaciones y pruebas de equipos tales como codificadores, decodificadores, dispositivos de captura y visualización, así como de algoritmos de procesamiento de vídeo. Además, la evaluación de la calidad de vídeo facilitará las labores de planificación y dimensionamiento de redes de distribución y podría permitir a los distribuidores de vídeo aplicar tarifas a los usuarios en función de la calidad final que puedan disfrutar en sus hogares.
 

Participantes:

Alcatel-Lucent España, S.A.; INDRA Sistemas, S.A.; Universidad Politécnica de Madrid.

Duración:

01-julio-2011 a 31-marzo-2014

 

 

 
Financiación:
 
Ministerio de Ciencia e Innovación, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011 (TEC2010-20412).
 
Descripción:
 
Este proyecto se propone apoyar el avance de las tecnologías empleadas en el tratamiento de imágenes y vídeo para análisis y compresión de información tridimensional, proponiendo nuevos algoritmos que contribuyan en las áreas de adquisición, caracterización, compresión, distribución y visualización de materiales audiovisuales que ofrezcan percepción de profundidad. Desde este objetivo principal surgen diversas áreas para apoyar el desarrollo de la 3DTV. Estos temas han sido elegidos para corresponder con líneas de actividad actuales del equipo del proyecto. Las actividades dentro de la adquisición y el análisis de vídeo cubren autocalibración de cámaras, detección y seguimiento de objetos significativos, caracterización de escenas, conversión de contenidos 2D a 3D y extensiones a operaciones móviles. El foco principal en representación está en codificación multi-vista y 3D como las alternativas principales para la compresión de información 3D y, en distribución, el envío inteligente de contenidos, la protección frente a errores y la evaluación de la calidad son los objetivos. Finalmente, hay diferentes tareas en visualización orientadas a la consecución de una presentación con punto de vista libre.
 

Participantes:

Universidad Politécnica de Madrid

Duración:

01-enero-2011 a 31-diciembre-2013

 

 

 
Financiación:
 
ICT COST Action (IC1003). 
 
Descripción:
 
Current forecasts on multimedia communication predict an aggressive growth. The transition from single medium communication (typically telephone and conversation based on voice) to interactive multimedia with (possibly augmented) 3D audiovisual content (media streaming, IPTV, multimodal teleconferences, NGN communication scenarios, etc.) encompasses the capability of reaching more complete and natural forms of expression and communication.
 
Perceived quality is one of the most fundamental goals when developing multimedia technologies, products and services. Thus, an approach for the design and assessment of next generation multimedia services needs to be based on effective and reliable metrics predicting the subjectively perceived quality. Quality optimization is meaningless if the notion of quality is not precisely defined, preventing effectiveness, efficiency, and user satisfaction.
 
The Network of Excellence (NoE) Qualinet aims at extending the notion of network-centric Quality of Service (QoS) in multimedia systems, by relying on the concept of Quality of Experience (QoE). The main scientific objective is the development of methodologies for subjective and objective quality metrics taking into account current and new trends in multimedia communication systems as witnessed by the appearance of new types of content and interactions. A substantial scientific impact on fragmented efforts carried out in this field will be achieved by coordinating the research of European experts under the catalytic COST umbrella.

 

Participantes:

Alpen-Adria-Universität Klagenfurt (AT); Forschungszentrum Telekommunikation Wien (AT); Universität Wien, Entertainment Computing (AT); Vrije Universiteit Brussel (BE); K. U. Leuven (BE); University of Zagreb (HR); Czech Technical University in Prague (CZ); Technical University of Denmark (DK); VTT Technical Research Centre of Finland (FI); Tampere Univ. of Technlogy (FI); Université de Nantes/Polytech Nantes (FR); TRIBVN (FR); Technische Universtität Berlin (DE); Technische Universtität München (DE); University of Würzburg (DE); Alexander TEI of Thessaloniki (GR); Hellenic Open University (GR); National University of Ireland (IE); Interdisciplinary Center (IL); Fondazione Ugo Bordoni (IT); Alinari 24 ORE spa (IT); Università di Perugia (IT); Politecnico di Bari (IT); University of Malta (MT); NTNU (NO); T-VIPS AS (NO); AGH University of Science and Technology (PL); Instituto Superior Técnico (PT); Universidade da Beira Interior (PT); Faculty of Technical Sciences (RS); Alpineon d.o.o. (SI); University of Maribor (SL); Consejo Superior de Investigaciones Cientificas (ES); Universidad Politécnica de Madrid (ES); Asociación Industrial de Óptica Color e Imagen AIDO (ES); Mid Sweden University (SE); Acreo AB (SE); Blekinge Institute of Technology (SE); Karlstad University (SE); École polytechnique fédérale de Lausanne (CH); University of Applied Sciences Western Switzerland (CH); University of Geneva (CH); University of Plymouth (GB); University of Essex (GB); University of Cyprus (CY); Faculty of Economics – Skopje (MKD);University Sts Cyril and Methodius (MKD).

Duración: 

08-noviembre-2010 a 07-noviembre-2014

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma Avanza Competitividad (I+D+i) (TSI-020400-2010-0029 e ITEA 2-09009).
 
Descripción:
 
El objetivo principal de este proyecto es el estudio y desarrollo de una televisión tridimensional (3DTV) extremo a extremo para el consumidor, teniendo la estereoscopía como base y evolucionando hacia el multivista:

- Adquirir una comprensión de cómo se desarrolla y evoluciona la 3DTV para el consumidor.
- Profundizar en el concepto multivista, considerado como la próxima generación de la 3DTV, identificando los posibles problemas y desafíos a través de la cadena extremo-a-extremo.

- Puesta en marcha, primer paso hacia el multivista, de una cadena extremo-a-extremo estereoscópica de calidad de alta gama (IPTV, cable), para permitir la evaluación de la calidad y su aceptación.

- Adoptar el enfoque centrado en el usuario que complementa la orientación tecnológica y empresarial del proyecto que lleva a una visión global de las posibilidades y el futuro de la 3DTV.
 

 Participantes:

Alcatel-Lucent España, S.A.; Barco N.V.; D4D Ingenieria Visual, S.L.; Hispasat, S.A.; NDS Technologies France; NXP Semiconductors France; Pace France; Philips Innovative Applications - Bruges, Belgium (PIA); Planet Media; SAPEC; Technicolor R&D France; Telefonica Servicios Audiovisuales; Telenet N.V.; Thomson Video Networks France S.A.S.; Trinnov Audio; Universidad de Zaragoza; University of Nantes- IRCCyN; Universidad Politécnica de Madrid (UPM); VideoHouse; VITEC Multimedia; Vlaamse Radio en Televisieomroep (VRT).

Duración:

01-mayo-2010 a 15-julio-2012

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma Avanza I+D (TSI-020110-2009-0205).
 
Descripción:
 
El objetivo principal de este proyecto es proporcionar una plataforma middleware que permita el desarrollo de una nueva generación de mundos virtuales en 3D de buena calidad gráfica, que integren los principales elementos de éxito de los MMOGs (Massively Multiplayer On-line Games), las redes sociales y los juegos casuales, y que permitan atraer y retener a una importante masa de usuarios.
 

Participantes

Atos Origin, S.A.; Universidad Complutense de Madrid; Universidad Politécnica de Madrid; Virtual Toys, S.L.

Duración:

01-junio-2009 a 9-diciembre-2011

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011 (TSI-020100-2009-443).
 
Descripción:
 
El objeto del proyecto es la implementación de un sistema de medición de la calidad de vídeo distribuido sobre IP en redes sin garantía de servicio extremo a extremo.
 

Participantes:

Alcatel-Lucent; Universidad Politécnica de Madrid.

Duración:

01-enero-2009 a 31-diciembre-2010

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica 2008-2011, Subprograma Avanza I+D (TSI-020301-2008-13 y TSI-020100-2010-103).
 
Descripción:
 
El objetivo tecnológico fundamental es la evolución de las redes de acceso satélite y WiMAX hacia el paradigma de las Redes de Nueva Generación (NGN), y la implementación de una plataforma prototipo para la provisión de servicios avanzados de comunicaciones basados en IMS. Asimismo WIMSAT busca responder a la demanda internacional de soluciones a esta evolución hacia NGN por parte de los operadores satélite dentro de la ventana de oportunidad, posicionando a la industria española en un lugar estratégico e incrementando su ventaja competitiva en el sector aeroespacial y de la provisión de servicios multimedia.

Participantes:

Ericsson; Indra Espacio; Retevisión; Thales Alenia Space España; Hispasat; Albentia Systems; Rose Vision; Centre Tecnológic de Telecomunicacions de Catalunya; Universidad Politécnica de Madrid; Universidad de Valladolid

Duración:

01-enero-2008 a 31-marzo-2012

 

 

 
Financiación:
 
Ministerio de Educación y Ciencia, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica (I+D+I) 2004-2007, Programa Nacional de Tecnologías Electrónica y de Comunicaciones (TEC2007-67764).
 
Descripción:
 
Application environments such as security, process inspection, and data gathering have in common the need for the automatic extraction of meaningful data from large sets of image capturing devices of different characteristics. Current multicamera-based vision systems suffer from serious limitations in terms of the number of cameras they can deal with, the amount of objects they can follow, and their ability to provide useful 3D descriptions of the detected entities of interest.
 
This project aimed at pushing forward the basic technologies and the systems aspects involved in multicamera vision systems; and contributed in the areas of image and video analysis, recovery of 3D information from images, generation of 3D descriptions of environments and objects, and camera management and communication. Smart cameras (endowed with processing capabilities) are the most interesting alternative for the implementation of advanced multicamera vision systems.
 
Several image and video analysis, processing and coding algorithms that allow the analysis and characterization of complex environments observed by networked smart cameras were developed within the project, allowing the detection and tracking of elements of interest for further global contextualized analysis of situations of interest, according to three different processing levels: autonomous, centralized and collaborative. Multicamera systems, based on networked smart cameras integrated in autonomous, centralized, and collaborative environments were developed, and were applied to use cases in the areas of surveillance and assisted driving.
 

Participantes:

Universidad Politécnica de Madrid.

Duración:

01-octubre-2007 a 30-septiembre-2010

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, gestionado por el CDTI enmarcado dentro del proyecto Ingenio 2010 (CENIT 2007-1012).
 
Descripción:
 
i3media is based on technologies for automated creation and management of intelligent audiovisual contents. His philosophy is based on the idea that to compete in the audiovisual market you need the best technologies for the production, management, distribution and exploitation of content. In order to generate new technologies that offer development opportunities to companies in the consortium, i3media focuses on intelligent content, customization and automated processes.
 

Participantes:

Mediapro; TID; Havas Media; Media Planning Group; Alcatel-Lucent España; STT Ingeniería y Sistemas; Corporació Catalana de Ràdio i Televisió; a través de CCRTV SSGG; TV3; Infospeech; Brainstorm; Noufer; Raditech; Barcelona Media; Universidad Politécnica de Cataluña; Universidad Politécnica de Valencia; Universidad Autónoma de Madrid; Universidad de Murcia; Universidad de Las Palmas; Universidad Carlos III de Madrid; Universidad Politécnica de Madrid.

Duración:

01-enero-2007 a 31-diciembre-2010

 

 

 
Financiación:
 
Ministerio de Industria, Turismo y Comercio, gestionado por el CDTI enmarcado dentro del proyecto Ingenio 2010 (CENIT 2007-1007).
 
Descripción:
 
Su objetivo ha sido desarrollar una nueva generación de sistemas de comunicación que permitiera transmitir la sensación de presencia real, de manera que que las personas separadas por grandes distancias percibieran la sensación de estar físicamente reunidas en un mismo lugar tanto en entornos domésticos, pymes o grandes empresas.
 

Participantes:

Telefónica Research and Development;Ericsson; Alcatel Lucent España; Anafocus; BrainStorm Multimedia; Design of Systems on Silicon; Eptron; AD Telecom; ADTel Sistemas de Comunicación; Psicología y Realidad Virtual; Sapec; Solex; TELNET Redes Inteligentes; ROBOTIKER; Fundació i2CAT; VICOM Tech; Universitat Politècnica de Catalunya; Universidad de Valladolid; Universidad de Cantabria; Universitat Jaime I; Universidad Carlos III; Universidad Autónoma de Madrid; Universidad Politécnica de Madrid; Universidad Politécnica de Valencia.

Duración:

01-enero-2007 a 31-diciembre-2010

 

 

 
Financiación:
 
Comunidad de Madrid (CM) en el marco del Plan Regional de Investigación Científica e Innovación Tecnológica  S - 0505/TIC/0233, IV PRICIT, CM.
 
Descripción:
 
El fin (científico-técnico) primordial es incorporar diseños inteligentes en ámbitos de procesamiento distribuido y redes móviles para codificación de la información y aprehensión del entorno. 
 
Los objetivos son: 
 
- Crear, desarrollar, analizar y evaluar nuevos métodos máquina por superposición de modelos en arquitecturas convencionales, y derivar posibles versiones adaptativas.
- Diseñar, aplicar y analizar nuevos métodos de extracción de información a partir de nodos sensores distribuidos (tanto físicos como virtuales) considerando los problemas de captación, fusión y comunicación.
- Analizar, extraer, describir, indexar, adaptar, codificar y transmitir contenidos audiovisuales y multimedia, operando sobre información de varias calidades (incluyendo televisión digital y de alta definición) y estructuras 3D.
- Desarrollar nuevas tecnologías para optimización de redes de comunicaciones inalámbricas, permitiendo su despliegue ubicuo con banda ancha, bajo consumo, alta tolerancia a fallos en nodos, y garantizando variadas Calidades de Servicio.
 

Participantes:

Universidad Carlos III; Universidad Politécnica de Madrid; Universidad Rey Juan Carlos; Universidad Autónoma de Madrid.

Duración:

01-abril-2006 a 31-octubre-2009

 

 

 
Financiación:
 
EU FP6-IST - Information Society Technologies Programme of the 6th Framework Programme (IST-2004-027195).
 
Descripción:
 
I-Way is a research project that will result in an innovative cooperative driving platform which will ubiquitously monitor and recognize the road environment and the driver’s state in real time using data obtained from three types of sources:
 
1. the in-vehicle sensing system.
2. the road infrastructure.
3. neighbouring cars.
 
It supports both road-to-vehicle and vehicle-to-vehicle communication in order to enhance drivers’ perception on road environment and improve their responses in critical traffic scenarios. I-Way will develop new and efficient methods for processing multi-sensorial signals based on sensor management and data fusion techniques. For that purpose, the I-Way platform integrates several independent sub-systems, mainly distributed as in-vehicle sub-systems and external roadside sub-systems. In-vehicle sub-systems are:
 
1. The vehicle sensing module.
2. The data acquisition module.
3. The mobile interfaces of the vehicle.
4. The situation assessment module.
5. The communication module.
 
External sub-systems:
 
 
1. Roadside equipment.
2. Road Management System.
 

Participantes:

Ele.Si.A Elettronica e Sistemi per Automazione (IT); Loquendo S.p.A (IT); Universidad Politécnica de Madrid (ES); Fondazione IARD (IT); DataBlue (GR); ABM Management Company S.p.A (IT); OHB TELEDATA GmbH (DE); University of Ioannina (GR); TWT GmbH Information & Engineering (DE); MIP – School of Management (IT); SWORD Technologies S.A (LX); Eurotech France S.A.S. (FR); GL 2006 Europe (GB); Centro Ricerche Fiat (IT).

Duración:

01-febrero-2006 a 31-enero-2009

 

 

 
Financiación:
 
EU FP6-IST - Information Society Technologies Programme of the 6th Framework Programme (IST-2004-028042).
 
Descripción:
 
The Internet has pushed the television to a new era, that of interactivity. However, the main difference between them is the amount of bandwidth required by the second to transport TV/Video signals with good QoS. Mixing the internet protocol and a broadcasting network (BN) may not result in an acceptable interactive system. Moreover, BNs are unable to serve mobile users moving at high speed. SUIT will explore several techniques to minimize the above mentioned problems and will propose solutions in the context of the universal interactive television access and network convergence. SUIT will consider an end-to-end chain composed of a playout, last mile networks, and terminals of different computational and display capacities.
 
Firstly, video contents, either live or pre-recorded will be encoded in a scalable way to be delivered simultaneously to a variety of devices from HD flat displays to handheld devices. Secondly, as the viewer expects that the interactive system responds to a request quickly, SUIT will optimally manage at the playout, the DVB-T/H and WiMAX resources, thereby, the requested content will be delivered as fast as possible through the available TDMA/FDMA slots in both networks. As SUIT is using scalable video contents, the playout system is able to increase, for short time, the bandwidth to support high priority contents, e.g. hyperlinked interactive video contents. Thirdly, scalable multiple descriptions, possibly unbalanced, are delivered through DVB-T/H and WiMAX in order to support high speed mobility.
 
To achieve the objectives related to scalable video, SUIT will make use of the most recent technologies like scalable H.264/MPEG-4 SVC and MPEG-21 DIA. The former will allow encoding digital video contents in a scalable manner. In order to optimally meet the network conditions, joint source-channel-modulation schemes will be investigated. Finally, the latter will support terminal descriptions and negotiations between the terminal and the playout.
 

Participantes:

Instituto de Telecomunicações (PT); IBBT (BE); Universitat Ramon Llull (ES) ; Rohde & Schwarz (ES); University of Surrey (GB); Vitec MM (FR); Runcom (IL); IRT- Institut für Rundfunktechnik GmbH (DE); Universidad Politécnica de Madrid (ES); Wavecom (PT); Med Cap Technologies (PT).

Duración:

01-febrero-2006 a 31-mayo-2008

 

 

 
Financiación:
 
Ministerio de Educación y Ciencia, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica (I+D+I) 2004-2007, Programa Nacional de Tecnologías Informáticas (TIN2004-07860).
 
Descripción:
 
The main objective of this project is to research in the design of algorithms and the development of tools, both oriented to automatic feature extraction in image sequences of controlled environments, additionally the further indexing, storage and customized access to the previously extracted and properly coded information out of those sequences. The project consists of two main stages: Information acquisition and Management of that information to offer services to the final user.
 
The information acquisition out of images from several cameras performs the automatic extraction of features of people present in those images, segmenting in real time the individual persons out of the background, while building a 3D model of the scene thanks to self-calibration techniques. Finally, this information is described according to the MPEG-7 standard to allow for efficient access and storage.
 
The second stage is mainly concerned with the management of the obtained information for its use in the development of applications. Its design is based on the user and terminal/network profiles (MPEG-21 DIA) and on the management of alert levels/options for the delivery of information relevant to each user. According to these profiles, the available coders with the proper parameters are run for the purpose of adaptation and customization of the information during each session.
 

Participantes:

Universidad Autónoma de Madrid; Universidad Politécnica de Madrid

Duración:

13-diciembre-2004 a 12-marzo-2008

 

 

 
Financiación:
 
EU FP6-IST - Information Society Technologies Programme of the 6th Framework Programme (IST-1-507926); y Ministerio de Educación y Ciencia, dentro del Plan Nacional de Investigación Científica, Desarrollo e Innovación Tecnológica (I+D+I) 2004-2007, Programa Nacional de Tecnologías Electrónica y de Comunicaciones (TEC2005-24736-E y TEC2006-26860-E).
 
Descripción:
 
The mission statement for OLGA is: to provide a unified framework to develop scalable 3D game content enabling roaming of games on a variety of terminals and networks. The technical key objective needed to fulfil this mission statement is to enable interoperable adaptation and transcoding of 3D gaming content, including complex and structured objects such as virtual characters (humanoids), over heterogeneous networks and cost-constrained devices.
 
To assess the results of the project an on-line, multi-player game will be developed and gradually upgraded during the lifetime of the project. Progressive improvements of its characteristics (game functionality, content richness, 4D content transmission, number of players, user requirements, etc.) and its applicability in varying system conditions (single server, grid computing, distributive network, etc.) will enlarge the search space for the optimal system configuration settings. The validation of the technology will be done in a public on-line environment typical for multi-player games. Although such an on-line game has been chosen to validate the technology, the OLGA Framework will be sufficiently generic in order to be applicable for other application domains. Users will be able to use (3D) content interactively, anywhere and at anytime.
 

Participantes:

Arcadia Design (IT); Interuniversitair Micro-Electronica Centrum vzw (BE); Institut National des Telecommunications (FR); ARRAKIS NV (BE); Philips Electronics Nederland B.V. (NL); Telefónica I+D (ES); Universidad Politécnica de Madrid (ES).

Duración:

01-marzo-2004 a 30-septiembre-2006

 

 

 
Financiación:
 
EU FP5-IST - Information Society Technologies Programme of the 5th Framework Programme (IST-2001-33184).
 
Descripción:
 
The main objective of the project is to provide integrated maritime training, onboard and ashore, using interactive multimedia and virtual reality technology. The project aims at promoting self-learning work and enhancement of soft skills. The proposed training process increase effectiveness and cost efficiency of training procedures in the shipping industry.
 
The project enables the existing and potential students, employees, employers and authorities to access SLIM-VRT Information System wherever and whenever they are and in a way that is user-friendly flexible, and learning effective. While directly targeting the improvement of quality of maritime training and the effectiveness of personal (and organisational) productivity, the project adds value not only to trainees’ expectations but also to the European shipping sector’s competitiveness as well as to the European Union’s vision.
 

Participantes:

British Maritime Technology (UK); Development Center of Oinoussai Aegean (GR); European Dynamics (GR); Universidad Politécnica de Madrid (ES); University of the Aegean (GR).

Duración:

01-abril-2002 a 31-marzo-2005