Páginas

domingo, 15 de septiembre de 2013

ENVIROFI, punto y seguido

La reunión final en Bruselas con el Project Officer a finales de agosto puso el broche final al proyecto europeo ENVIROFI en el que he estado involucrado los últimos 2 años. ENVIROFI es el nombre corto para The Environmental Observation Web and its Service Applications within the Future Internet, subvencionado por la Comisión Europea dentro del programa FP7-ICT. Se trata de un proyecto totalmente distinto a otros proyectos en los que he trabajado. En primer lugar, ENVIROFI es un proyecto más del ecosistema de proyectos entrelazados del programa Future Internet Public-Private Partnership (FI-PPP). Esto supone una gran diferencia puesto que el éxito del proyecto no depende únicamente del trabajo realizado por los miembros del consorcio sino que también depende que los demás proyectos realizaran su trabajo. Cuando existen dependencias entre proyectos, el riesgo de fracaso se incrementa pero en caso de éxito el resultado en conjunto supera con creces los resultados individuales de cada uno de los proyectos. 

Hablaré en próximas entradas sobre los resultados de ENVIROFI en particular, y sobre el programa FI-PPP, ya que es muy fácil perderse entre tanto proyecto y siglas. Pero sobre todo porque se esperan novedades interesantes de aquí hasta el 2015 . Vale la pena anticipar que una de las partes mas novedosas e interesante del proyecto ENVIROFI y por extensión del programa FI-PPP es su impacto sobre el tejido empresarial. Aparte de la documentacion técnica generada y de un montón de artículos científicos,  ENVIROFI sobresale por ofrecer a las pymes del sector de las tecnologías geoespaciales unos cuantos recursos valiosos. Por eso no es un punto final sino un punto y a parte:
  • Un catalogo online de acceso publico donde encontrar los resultados del proyecto.
  • Un conjunto enablers o "facilitadores" desarrollados para cubrir funcionalidades especificas de las aplicaciones medioambientales. 
  • Un conjunto de aplicaciones móviles que internamente combinan los "facilitadores" anteriores para tareas ya mas complejas, y elaborados como (i) la colección,  gestión y evaluación de la calidad de los datos facilitados por los usuarios para la conservación de la biodiversidad y la monitorización de la calidad del aire.

sábado, 7 de septiembre de 2013

Big Data: The future is in analytics

Este artículo de Abril de 2013 en la revista Geospatial World comenta algunas recomendaciones  que me han llamado especialmente la atención. Primero, no caigamos en el mismo error del pesado (lease servicios OGC vs. servicios web), y pensamos que necesitamos un Geo Big Data especial para la comunidad  geoespacial diferente de la corriente  actual de desarrollo en Big Data. Nada de eso, lo que hay que intentar es revalorizar el componente geográfico en el contexto de la tecnología actual de Big Data, sin tener que crear dos mundos artificiales distintos, uno geo y otro el resto del mundo, que en la vida real están totalmente conectados desde el punto de vida del usuario. Por ejemplo, no creo que estas dos preguntas a un Big Data necesiten tecnología distintas: Dame los sensores que miden contaminación de aire o dame los sensores que miden contaminación de aire cerca de mi? Segundo, Big Data, en una simple frase,  trata del almacenamiento de grandes cantidades de datos estructurados y no estructurados, que con la tecnología actual de bases de datos no es posible. Esto ya es un reto, por supuesto. Pero mas que el almacenaje de datos, lo interesante es sacar jugo a los datos, descubrir relaciones ocultas que únicamente emergen cuando se aplican técnicas de análisis de datos. De ahí la importancia  de la parte analítica en el Big Data. Tercero y ultimo, cito textualmente al autor porque lo explica de maravilla:
GIScience needs to move away from this approach [descriptive analysis] and move on to a model-centric approach, which stresses the underlying spatial processes rather than addressing the data bottleneck. [...]. The need is for runtime stream data analysis. The focus therefore shifts from the database to a model dictionary that is applied to streaming data to detect the states of the environment to highlight normal and abnormal conditions. Stream processing can be used to tune model parameters and to store useful data samples.