Páginas

miércoles, 18 de diciembre de 2013

Slow Technology

Cada vez surgen más y más aplicaciones, redes sociales, novedades tecnológicas, que aparecen y en poco, viendo la fugacidad de los tiempos que corren, desaparecen o vienen sustituidas casi con la misma rapidez con la que surgieron. Parece que estamos sometidos a un cambio constante y que debemos probar todos los nuevos gadgets que aparecen. 

Últimamente se dice que Facebook está de capa caída, y que los usuarios (sobre todo los jóvenes) prefieren más servicios instantáneos como Snapchat, cuando hace un par de años no eras nadie si no estabas en Facebook. Nunca entre en Second Life, un mundo virtual paralelo al real, nacido en 2003 con grandes expectativas y venido a menos con el auge de las redes sociales, muchos invirtieron incluso dinero en el y salieron mal parados. La rueda no para y ya esta en desarrollo su continuación mejorada y ampliada con la incorporación de sensores, Highfidelity. No tengo smartphone, estar permanentemente conectada sería mi perdición. Tampoco hago uso del Whatsapp, aunque durante un tiempo hice uso de una comunidad "abusiva" de emails. Llegan los relojes que te avisan de todo, e incluso los anillos, por si se te pasa por alto que recibiste un email y no creo que lo compre.

Pasado un tiempo piensas, ¿me he perdido algo si no he tenido cuenta de Twitter? ¿Y si no he tenido Facebook? ¿Qué pasa si me salto tres generaciones de Smartphone?¿Y si no tengo Internet en el móvil? Pues sí, principalmente no sabes cómo funciona en primera persona, no lo has experimentado, te has perdido algunas risas y algunos disgustos, pero tampoco he cantado en un coro o he hecho surf, y quizá me hubiera encantado, pero he hecho muchísimas otras cosas... Que no hagas uso de la cantidad enorme de posibilidades tecnológicas que tenemos a nuestro alcance, no quiere decir que no sepas de que van, al contrario, hay que estar al día de lo que sucede, porque esto te permite elegir entre lo que te hace falta y no, o lo que estás dispuesto a perder o ganar, según se mire, haciendo uso o no de estas tecnologías.

Me parece importante tener la opción de elegir, incluso rebelarse al uso de tecnologías que no nos son útiles y que solo nos suponen colapso material y mental. No me veo en ninguna de las categorías creadas para adoptar una tecnología (innovators, early adopters, early majority, late majority, laggards). Claramente no soy una early adopter, pero tampoco una laggard porque no tengo aversión por la tecnología, sino que necesito tiempo para reflexionar sobre lo que puede serme útil o no, aunque quizá ese tiempo sea excesivo según los patrones de instantaneidad y rapidez de hoy en día. Reivindico una Slow Technology, que me permita conocer las nuevas tendencias en tecnológicas, examinarlas con atención para elegir aquellas que puedan aportarme alguna ventaja. Una forma meditada de saborear la tecnología,  para disfrutar de sus ventajas y darse el tiempo necesario para encontrar aquellos matices que más me puedan interesar. 

En algún momento debemos decir basta, y pararnos a reflexionar sobre con cuanta tecnología podemos y queremos lidiar diariamente sin ser considerados los freakies por no comprar el ultimo teléfono móvil.  No deja de ser paradójico, que curiosamente también nos llamaban así algún tiempo atrás cuando la tecnología no era tan invasiva y decidíamos probar todo de motu proprio.


miércoles, 11 de diciembre de 2013

Las Vs de Big data: Variedad (Parte 2)

Seguimos con la serie de las Vs que caracterizan a Big Data para las Unidades de Información con la V de Variedad

Como ocurría con el Volumen, la Variedad es una cualidad de Big Data que no necesita mucha más explicación adicional.  La variedad de datos de los cuales se puede "sacar jugo" es cada vez mayor, y de algún modo correlaciona con la cantidad de distintas fuentes generadoras de datos.  
Los datos generados por la multitud de sensores estáticos desplegados en las ciudades: sensores de movimiento, video-cámaras, térmicos, infrarrojos, de medición de la calidad del aire, del sonido, de condiciones medioambientales, etc.>

Los datos generados por los sensores humanos mediante el uso de las redes sociales, y las que están por venir.

Los datos generado por los nuevos dispositivos, dejando al smartphone de lado, como los relojes, gafas, brazaletes, la televisión y ropa "inteligente" repleta de nuevos mini-sensores que monitorizarán nuestra actividad diaria y la de nuestro entorno. 

Los datos generados por literalmente cualquier cosa (o "thing") que te puedas imaginar, y que tenga la capacidad de dialogar con otras cosas para captar/transmitir datos. La Internet de las Cosas promete ser un generador continuo de flujos de datos de cualquier índole. 

Los datos generados por lo que vienen siendo los proveedores tradicionales, como instituciones y agencias públicas, unidades de información, bibliotecas, organismos científicos, etc., que obviamente siguen teniendo su tirón e importancia como proveedores de datos ante en el mundo dominado por los datos de "ahora y aquí" captados por los distintos tipos de sensores mencionados arriba.

Los datos generados por los sensores equipados en tu dispositivo móvil, que llevas en tu bolsillo a todas partes. Aparentemente son pocos,  pero multiplicados por unos cuantos millones en todo el mundo, la cantidad y variedad de datos va in crescendo con el paso del tiempo. Sin duda alguna.

Ante la era de los sensores por doquier,  no cabe duda que los datos generados serán de lo más variado, en cuanto a formato, contenido, estructura, semántica, resolución espacial, resolución temporal,  y mucho, mucho ruido intercalado para hacer el cóctel mas interesante.

Las bibliotecas e unidades de información afrontan un gran reto desde la perspectiva de la gestión de estas colecciones tan variadas. Desde la parte tecnológica, Big Data promete poner orden en todo ese caos de tipos heterogéneos de datos. Eso está aún por ver, pero tampoco es la responsabilidad de las bibliotecas y unidades de información. Sin embargo, en cuanto a la parte que les atañe, el reto supone casi un cambio disruptivo en aptitud, mentalidad , y saber hacer del oficio. A diferencia del pasado y presente actual, el saber adaptarse y vivir con la variedad, incertidumbre, y dinamismo de las colecciones de datos actuales será clave para posicionar otra vez a las unidades de información y bibliotecas como centros de referencia en la gestión de la nueva ola de colecciones. Sin una voluntad de cambio hacia la variedad, quedarán exiliadas de la era de los sensores.

domingo, 1 de diciembre de 2013

Se busca geobibliotecario (2)

Hemos plasmado nuestras ideas previas sobre el role de geobibliotecario en un artículo publicado en EPI, el cual se puede descargar desde e-LIS donde comentamos la necesidad de abordar de forma colaborativa la gestión de los datos geográficos producidos en las universidades [1]. Los datos geográficos son transversales ya que muchas departamentos distintos bien los producen o los utilizan en sus proyectos. La gestión de estas colecciones sería mucho más eficaz desde un servicio central en las universidades como lo es la biblioteca, donde sus profesionales pueden ofrecer su buen hacer en gestión de colecciones aplicado a este tipo particular de datos.

Esperamos vuestro comentarios y sugerencias!

[1] C. Granell-Canut, E. Aquilar-Moreno. Se busca geobibliotecario: los datos geográficos entran en la biblioteca. Profesional de la Información, 22(6):569-573, 2013. doi:10.3145/epi.2013.nov.10 

miércoles, 20 de noviembre de 2013

Nueva bloguera: @eaguilarmo

El equipo de blogueros de geo-palabras se duplica con la llegada de Estefania Aguilar Moreno (@eaguilarmo). Consulta su perfil y su primera e interesenta entrada sobre la publicacion de datos cientificos en abierto

viernes, 15 de noviembre de 2013

Abocados a publicar en abierto, ¿a qué coste?

El gobierno español, a través de la nueva convocatoria de ayudas a la investigación, acaba de apuntar hacia la obligatoriedad de publicar en acceso abierto los resultados de investigación originados con fondos de dichas convocatorias.
Por otro lado también hemos leído una reciente nota publicada en el boletín IPR Helpdesk donde se remarca la necesidad de definir políticas de acceso abierto a las publicaciones científicas, especialmente aquellas que han estado financiadas con fondos públicos. Además de explicar de forma muy sencilla qué es la vía verde y la vía dorada, el artículo recoge varios datos interesantes.


Por un lado el indudable beneficio económico que supone publicar en abierto, en cuanto al desarrollo de ciencia nueva, basada en ciencia accesible, por lo tanto generada a partir de investigaciones previas

[...] the overall economic benefit from increased access to scientific information for the EU 27 at €5 billion a year. This implies potential economic benefits  from  increased  access  to  the scientific  information  emanating  from public funding at €1.8 billion a year [...] (The European IPRHelpdesk bulletin, 11, 2013.p.2 )
Por otro lado, el crecimiento exorbitante de la publicación de trabajos de investigación en abierto nos hace plantearnos algunas preguntas en relación a cuál será la actitud que los investigadores ante esta situación cómo esto podría influir en la calidad de las investigaciones, refiriéndonos al proceso de revisión del estado del arte.


[...] A recent report by Science Metrix suggests that open access has grown faster than expected with around 50% of the papers published in 2011 being available for free in 2013. [...]

Dentro del mundo de consumo rápido e instantáneo de información, ¿Estarán los investigadores dispuestos a esperar que les llegue un artículo a través de su servicio de obtención de documentos de una biblioteca (si tuvieran acceso a ella) o por contra se decidirán a leer exclusivamente los artículos a los que tengan acceso inmediato?

¿Qué pasará con los artículos antiguos, pero quizá muy interesantes, que no han llegado a formar parte de este movimiento de acceso abierto y, por lo tanto, se publicaron tradicionalmente sin el mandato, sea nacional o europeo, de publicar en acceso abierto?¿Acabarán estos citándose únicamente por hacerse eco de otras publicaciones relacionadas, sin ninguna lectura real ni consulta? 

¿Y todos aquellos artículos que nunca serán leídos por nadie, por su bajo interés, quizá más alto si estuvieran en acceso abierto, y que simplemente quedan en un limbo? ¿Merece la pena invertir tiempo en ellos, sobre todo desde el punto de vista del esfuerzo de sus autores? Publicar artículos que nadie va a consultar, leer, ni citar...

Lo que sí que parece claro es que, a parte de los mandatos de diferentes niveles gubernativos, cada vez es menos interesante para un investigador que sus artículos aparezcan en revistas maravillosas e "impactantes", pero antiguas y cerradas. Faltaría ver, si las políticas de evaluación de investigadores también se adaptan a los nuevos tiempos, y empiezan a valorar de otra forma la calidad de la investigación, más allá del Factor de Impacto.

miércoles, 13 de noviembre de 2013

Las Vs de Big Data: Volumen (Parte 1)

Comezamos la serie de las Vs que caracterizan a Big Data para las Unidades de Información con la V de Volumen

Big data implica grandes volúmenes de datos que crecen a ritmos exponenciales. Se cuenta que cada día se generan enormes cantidades de datos nuevos. Cualquiera puede intuir que volumen es una característica de Big Data que ya se sobreentiende. Lo primero que a uno le cruza la mente al leer el término Big Data es justo la referencia al tamaño: enormes conjuntos de datos. Es cierto, sin lugar a dudas se publican cientos de miles de artículos científicos al año, millones de contenido multimedia se comparte en redes sociales, los satélites capturan continuamente imágenes satélites de la tierra, intercambios de ficheros, por no hablar de la avalancha de datos que se generaran cuando los sensores inteligentes (monitorizando ciudades, bosques, cualquier rincón de la tierra e incluso a uno mismo) y el internet de las cosas alcancen un nivel de madurez aceptable. En total, muchos, muchos datos al día.

La Biblioteca del Congreso anunció en 2010 un plan para almacenar cada tuit desde 2006. Tan solo cuatro años después este proyecto, que parecía estancado por la dificultad técnica y los recursos económicos necesarios para almacenar todos esos datos, quizás podría materializarse más rápidamente hoy porque los costes de almacenamiento literalmente tienden a cero y la disponible de herramientas especializadas (algunas sin coste) para almacenar grandes volumen de datos no estructurados. Parece que big data puede solucionar el retraso de unos cuantos años en la Biblioteca del Congreso.

Sin embargo  podemos dar un paso atrás, tomar un poco de aire y perspectiva, y ser un poco críticos antes de dejarnos arrastrar ciegamente por la corriente mediática del Big Data.  

Primero, el big de hoy será el small de mañana.  La percepción de cuanto unos datos son Big varía en función del campo de estudio. Por ejemplo, en GI (información geográfica), los grandes conjuntos de datos son intrínsecos a la disciplina desde sus comienzos. Además, Big es algo dependiente del contexto actual. Tengamos claro pues que seremos capaces de generar datos “superbig” en los años venideros y miraremos atrás para darnos cuento de lo "small" que eran los datos entonces.  

Segundo, cuanto mayor sea la cantidad de datos almacenados, mejores decisiones se podrán tomar para mejorar la sostenibilidad, eficiencia y eficacia de los servicios públicos de las ciudades,  los problemas del medio ambiente y la energía, y, en definitiva, mejorar la calidad de vida de los ciudadanos. Seguro? El almacenaje de datos es barato, el problema es mantenerlos en orden a medida que pasa el tiempo. La curación y preservación de los datos es un problema mucho más complejo que encima se vuelve más enrevesado con la llegada de Big Data (debido a la variedad, como veremos la semana próxima). Debemos entonces almacenar todo y ya nos preocuparemos de preservarlo luego? O debemos almacenar únicamente aquello potencialmente interesante y relevante?

Tercero, no deberíamos preocuparnos tanto por el Big Data. Normalmente no vamos a interaccionar directamente con “los-grandes-datos”. Creo que estoy en lo cierto en afirmar que a nadie le gusta tratar con miles de filas y columnas de datos. Lo normal será que terminemos manejando una porción reducida de éstos, tras un proceso de agregado y filtrado de los big data para extraer datos de valor y relevantes, que sí nos servirán para tomar decisiones fiables. Luego, no deberíamos sentirnos frustrados por la avalancha de nuevas herramientas Big para tratar datos Big. Si somos capaces de obtener conjuntos pequeño de datos significativos, haremos nuestros análisis correspondientes con las herramientas que ya conocemos y que tenemos a nuestro alcance.


Por muy grandes que sean los datos en cuanto a volumen, siempre querremos disponer de porciones reducidas, representativas y manejables, pero que nos permitan llegar a las mismas conclusiones que con los originales. Luego el reto en Big Data no está en el aumento del volumen de los datos, sino en su reducción adecuada

domingo, 3 de noviembre de 2013

¿Hay alternativa al actual sistema de evaluación científica? (III)

Puede que al final se logren sistemas de evaluación sensatos y transparentes que tengan en cuenta al menos las dimensiones del individuo, del grupo que forma parte, y de la sociedad, y que las conciba todas como partes integrales del ser de un investigador. Incluso así, lamentablemente, parece que para los próximos años todos los aspirantes a investigador/profesor en la universidad española simplemente no cabemos.
Aquí caben dos posibilidades. Se aumenta la oferta en la universidad, o se disminuye la demanda. Lo primero no va a suceder en un futuro próximo. Lo segundo podría solucionar parcialmente el problema si por ejemplo los programas de doctorado no fueran destinados únicamente a la formación de doctores "académicos". Estaría bien formar doctores para la industria, que formara parte de grupos de I+D de empresas privadas, ligados a los objetivos del mercado, y en general en busca de patentes en vez de artículos.  

El grupo Biotechnology and Life Science Advising (BALSA) nos cuenta su caso de éxito en el incipiente camino de la formación de investigadores para sel sector I+D privado en el artículo "The missing piece to changing the university culture", publicado en Nature Biotechnology 31, 938–941, 2013. Realmente vale la pena su lectura. 

jueves, 24 de octubre de 2013

La Madrid del 1900

Sacar del cajón datos históricos para mostrarlos con las tecnologías actuales y, lo más importante, ponerlos a disposición del ciudadano, es de vital importancia. Estudiantes, amantes de la historia, aficionados de lo retro, y los madrileños que quieran saber cómo era Madrid hace un siglo, tienen a su disposición un nuevo geoportal de cartografía y demografía histórica para la ciudad de Madrid.


El geoportal es el resultado de un proyecto de colaboración ente el Centro de Ciencias Humanas y Sociales (CCHS) del Consejo Superior de Investigaciones Científicas (CSIC),  y la Dirección General de Estadística del Ayuntamiento de Madrid. El visor cartográfico permite examinar cartografía histórica del “plano de Madrid y pueblos colindantes” de 1902 del cartógrafo español Facundo Cañada López, junto con cartografía, fotografía aérea para el período 1860-2012. Como datos estadísticos de referencia, se ha hecho uso del Registro Longitudinal de Población Histórico de la Ciudad de Madrid entre 1890 y 1935 y de sus Anuarios Estadísticos entre 1897 y 1935.
Un proyecto que mezcla tecnología actual, con datos geográficos de ayer y hoy. Una gran herramienta para las humanidades y ciencias sociales en general.

lunes, 21 de octubre de 2013

¿Hay alternativa al actual sistema de evaluación científica? (II)

Hace unos meses comentábamos la importancia de la evaluación colectiva para complementar la evaluación individual de la ciencia. En mi parece, basar la evaluación científica únicamente en méritos individuales o en los del grupo, distorsiona la realidad. 
Lo primero porque la ciencia se hace actualmente en el marco de un grupo, un colectivo que trabaja hacia un mismo objetivo. Un investigador no trabaja solo sino que colabora con muchos. Los resultados científicos son los frutos de trabajo colectivo. Evaluar al individuo omitiendo al grupo supone, al menos, perder el contexto y la motivación de la investigación, por lo que puede ignorarse o malinterpretarse el peso de un individuo en su grupo. Lo segundo porque ceñir la evaluación únicamente a los méritos del grupo en su conjunto esconde obviamente la participación individual de cada uno de los miembros del grupo. De esto hay un sinfín de ejemplos que todos conocemos y no vale la pena profundizar más.
Una evaluación híbrida, que tenga en cuenta la contribución individual en el contexto de un grupo, puede dar más contexto y transparencia para entender mejor la trayectoria y contribución científica de un individuo.

Todo lo anterior se resume como el impacto científico de un individuo, que pierde toda su esencia para procesos de evaluación científica si no se tiene también en cuenta el impacto social de la investigación. ¿Que beneficios aporta mi investigación a la sociedad,  a la naturaleza, a los animales, a las ciudades, a la historia, en definitiva, en hacer un mundo mejor? ¿Se ha enterado la sociedad de los resultados alcanzados en la investigación? ¿El investigador se ha puesto en el lugar del ciudadano y se ha preguntado para qué puede servir lo que está haciendo? Algunos ejemplos imaginativos de divulgación y para involucrar a los ciudadanos en proyectos científicos como charlas en colegios, libros para niños, y otros tantos ejemplos nos lo cuenta el artículo "Impact: Pack a punk", publicado en Nature 502, 397-398, 2013.

viernes, 18 de octubre de 2013

Big Data en unidades de información

Imagina un mundo en que existen conjuntos de datos descomunales que contienen datos sobre cada uno de los detalles de las publicaciones científicas, los autores, el rol de cada autor, los datos empleados en los estudios, las presentaciones públicas derivadas de cada presentación, videos, manuales y documentos asociados, información sobre los proyectos que financian dichas investigaciones, las patentes asociadas, y detalles sobre los productos o servicios transferidos al mercado derivados de la investigación, y porque no otros tantos mensajes, tuits, fotos y entradas de blogs provenientes de las redes sociales que cuentan la impresión y percepción que tienen terceros (colegas, clientes, amigos e incluso la familia) sobre el último trabajo científico.

Jim Cray lideró el cambio hacia el cuarto paradigma en la ciencia, basado íntegramente en una ciencia intensiva en datos. El término paradigma presupone un tipping point, un cambio en hacer las cosas como resultados de la acumulación de pequeños cambios a lo largo del tiempo. Tal como apuntó Kuhn en su indispensable libro The structure of scientific revolutions”, "la ciencia no progresa mediante acumulaciones lineales de nuevo conocimiento, sino que periódicamente suceden revoluciones, o cambios de paradigma, que transforman radicalmente la naturaleza del método científico en ciertas disciplinas y campos".

La ciencia intensiva en datos esta aquí y viene para quedarse. Representa el inicio hacia un cambio de paradigma que se asentara durante los próximos años. Significa una revolución necesaria para adecuarse a las nuevas condiciones del entorno: datos, datos y datos. Y por qué ahora surge esta manía colectiva por los datos si siempre hemos estados rodeados de inmensas cantidades de datos? El cumulo de varios factores puede explicar que este cambio de paradigma suceda justo ahora y no antes.

Primero, la democratización de la tecnología móvil ha propiciado que muchos ciudadanos lleven un “generador de datos en cualquier lugar y momento” en su bolsillo.

Segundo, el giro hacia el usuario, la colaboración, y la producción de contenido colaborativo de la Web 2.0 ha permite la creación masiva de datos y ha sido un factor determinante para que se precipite el cambio de paradigma.

Tercero, la tecnología necesaria para el almacenamiento, análisis y minería de grandes cantidades de datos ha alcanzo un estado de madurez aceptable para que la ciencia intensiva en datos sea posible. Aquí no me refiero a una única tecnología sino a un conjunto de tecnologías interrelaciones como la computación en la nube, virtualización, bases de datos No-SQL, nuevos modelos de computación como MapReduce, sensores, y un largo etcétera, que hacen posible en conjunto Big Data, o sea, el tratamiento masivo de datos.

Cuarto, el coste de las herramientas Big Data se ha reducido de tal forma que cualquiera puede tener acceso a ellas, y no solo un selecto club de privilegiados (CERN, Yahoo!, o Google) como era hasta ahora.

Quinto, los espabilados que ven negocio a través de los datos también han impulsado la demanda por Big Data. Lo que nos cuentan los datos puede servir para explorar nuevas tendencias de mercado, segmentación de clientes, estudiar la productividad de una comunidad científica, pronosticar intención de voto, analizar el tejido empresarial-investigación de una región e incluso diseñar nuevas políticas de futuro.


La ciencia intensiva en datos necesita de herramientas, métodos y personal con miras analíticas para explotar convenientemente Big Data. A lo largo de las próximas semanas analizaremos las Vs que caracterizan a Big Data así como su valor e impacto para las Unidades de Información 

martes, 15 de octubre de 2013

ENVIROFI: ISESS 2013 Best Scientific Paper Award

Un artículo firmado con otros colegas del proyecto ENVIROFI ha sido premiado como mejor artículo científico del Simposio Internacional en Sistemas Software Medioambiental (ISESS 2013), celebrado a principio de Octubre cerca de Viena. El artículo lleva por título "The Future Intener Enablement on the Environment Information Space" y también lo podéis consultar a texto completo.

martes, 1 de octubre de 2013

2, 50, 75 y 80

Se dice que una imagen vale más que mil palabras. Los humanos tenemos una destreza visual envidiable. Carlo Ratti, profesor del MIT, dijo en una entrevista algún tiempo atrás cuatro números que dicen más que mil imágenes.
Las cuatro cifras importantes que hay que recordar sobre las ciudades son las siguientes: 2, 50, 75 y 80. Las ciudades solo suponen el 2 % de la corteza terrestre, pero concentran al 50 % de la población, representan el 75 % del consumo energético y el 80 % de las emisiones de CO2.
A primera vista parece que el gran problema al desarrollo y consumo sostenible y eficiente de recursos naturales y energético reside en las grandes urbes, ya que consumen prácticamente tres cuartas partes de toda la energía mundial y son responsables del 80% de las emisiones de CO2. 

Mas bien todo lo contrario: las ciudades son la clave para una cultura de desarrollo y consumo sostenible. 

Lo que parece claro es que las ciudades deben ser el foco de estudio, investigación  e innovación durante los próximos años.  Reduciendo el gasto energético y minimizando la contaminación en las ciudades, el porcentaje global de consumo energético y emisiones se reduciría drásticamente.

Para 2050 se estima que la población mundial llegue a la barrera de lo 9.000 millones. Más de la mitad vivirán en ciudades. Los dos primeros números para 2050 podrían ser 5, 70: los ciudades crecerían y emergerían nuevas urbas para dar cabida al 70% de la población mundial en 2050, que sería cerca de la población total actual.  ¿Lograremos que los dos últimos sean 50, 50 para 2050? 

domingo, 15 de septiembre de 2013

ENVIROFI, punto y seguido

La reunión final en Bruselas con el Project Officer a finales de agosto puso el broche final al proyecto europeo ENVIROFI en el que he estado involucrado los últimos 2 años. ENVIROFI es el nombre corto para The Environmental Observation Web and its Service Applications within the Future Internet, subvencionado por la Comisión Europea dentro del programa FP7-ICT. Se trata de un proyecto totalmente distinto a otros proyectos en los que he trabajado. En primer lugar, ENVIROFI es un proyecto más del ecosistema de proyectos entrelazados del programa Future Internet Public-Private Partnership (FI-PPP). Esto supone una gran diferencia puesto que el éxito del proyecto no depende únicamente del trabajo realizado por los miembros del consorcio sino que también depende que los demás proyectos realizaran su trabajo. Cuando existen dependencias entre proyectos, el riesgo de fracaso se incrementa pero en caso de éxito el resultado en conjunto supera con creces los resultados individuales de cada uno de los proyectos. 

Hablaré en próximas entradas sobre los resultados de ENVIROFI en particular, y sobre el programa FI-PPP, ya que es muy fácil perderse entre tanto proyecto y siglas. Pero sobre todo porque se esperan novedades interesantes de aquí hasta el 2015 . Vale la pena anticipar que una de las partes mas novedosas e interesante del proyecto ENVIROFI y por extensión del programa FI-PPP es su impacto sobre el tejido empresarial. Aparte de la documentacion técnica generada y de un montón de artículos científicos,  ENVIROFI sobresale por ofrecer a las pymes del sector de las tecnologías geoespaciales unos cuantos recursos valiosos. Por eso no es un punto final sino un punto y a parte:
  • Un catalogo online de acceso publico donde encontrar los resultados del proyecto.
  • Un conjunto enablers o "facilitadores" desarrollados para cubrir funcionalidades especificas de las aplicaciones medioambientales. 
  • Un conjunto de aplicaciones móviles que internamente combinan los "facilitadores" anteriores para tareas ya mas complejas, y elaborados como (i) la colección,  gestión y evaluación de la calidad de los datos facilitados por los usuarios para la conservación de la biodiversidad y la monitorización de la calidad del aire.

sábado, 7 de septiembre de 2013

Big Data: The future is in analytics

Este artículo de Abril de 2013 en la revista Geospatial World comenta algunas recomendaciones  que me han llamado especialmente la atención. Primero, no caigamos en el mismo error del pesado (lease servicios OGC vs. servicios web), y pensamos que necesitamos un Geo Big Data especial para la comunidad  geoespacial diferente de la corriente  actual de desarrollo en Big Data. Nada de eso, lo que hay que intentar es revalorizar el componente geográfico en el contexto de la tecnología actual de Big Data, sin tener que crear dos mundos artificiales distintos, uno geo y otro el resto del mundo, que en la vida real están totalmente conectados desde el punto de vida del usuario. Por ejemplo, no creo que estas dos preguntas a un Big Data necesiten tecnología distintas: Dame los sensores que miden contaminación de aire o dame los sensores que miden contaminación de aire cerca de mi? Segundo, Big Data, en una simple frase,  trata del almacenamiento de grandes cantidades de datos estructurados y no estructurados, que con la tecnología actual de bases de datos no es posible. Esto ya es un reto, por supuesto. Pero mas que el almacenaje de datos, lo interesante es sacar jugo a los datos, descubrir relaciones ocultas que únicamente emergen cuando se aplican técnicas de análisis de datos. De ahí la importancia  de la parte analítica en el Big Data. Tercero y ultimo, cito textualmente al autor porque lo explica de maravilla:
GIScience needs to move away from this approach [descriptive analysis] and move on to a model-centric approach, which stresses the underlying spatial processes rather than addressing the data bottleneck. [...]. The need is for runtime stream data analysis. The focus therefore shifts from the database to a model dictionary that is applied to streaming data to detect the states of the environment to highlight normal and abnormal conditions. Stream processing can be used to tune model parameters and to store useful data samples.

sábado, 24 de agosto de 2013

Digital Science, H2020 y blogs divulgativos

Horizon2020 (H2020), el nuevo Programa Marco de la CE,  está a la vuelta de esquina. H2020 se convertirá en el instrumento fundamental para la financiación de proyectos europeos de investigación competitivos para los próximos 7 años, comenzando en el 2014. Aun se están ultimando detalles pero parece claro que el término Digital Science cobra importancia en el nuevo programa.  En esencia, lo que persigue la Comisión es que se fomente la investigación colaborativa a través de la puesta en marcha de infraestructuras de investigación que permitan compartir herramientas, métodos, datos, resultados,  y cualquier recurso científico que se genere de una proyecto de investigación. Pare ello, se requieren clara políticas de acceso abierto a los datos generados y las publicaciones, un aspecto clave para la Comisión. No solo recursos sino que también, por supuesto, para que los investigadores y científicos de diferentes instituciones colaboren, dialoguen y trabajen juntos de la forma mas efectiva y eficiente posible.

Cualquier iniciativa para llevar a cabo investigación colaborativo es loable, necesaria y bien recibida. Pero hasta ahora estamos hablando de la colaboración científico-científico. Lo que me llama la atención del vocablo Digital Science es que pone especial énfasis en al relación sociedad-científico o ciudadano-científico en ambos sentidos. Por un lado, se pretende que los ciudadanos se involucren de forma directa en el método científico,  es decir, que literalmente participen de forma activo en las diferentes fases de un proyecto científicos. Por ejemplo en la recogida de datos, la identificación de datos, en la propuesta de métodos de análisis , o la discusión de resultados. Evidentemente, dependiendo de cada tipo de proyecto,  algunas tareas son más propensas que otras para que el ciudadano se involucre en el proyecto científico. Se trata pues de llevar al extremo la idea de Ciencia Ciudadana

Por otra parte, lo novedoso (aunque el párrafo anterior también lo es, claro) es la comunicación en el sentido inverso, del científico al ciudadano o sociedad. Por fin, se identifica explícitamente y se valora la necesidad de diseminar los resultados del proyecto a la sociedad, en hacer hincapié en actividades de divulgación científica y comunicación de la ciencia al público.  

Y aquí es donde aparecen los blogs divulgativos. 

Leí recientemente una entrada que, acertadamente, proponía el uso de los blogs como herramientas de divulgación perfectamente alineadas a los tiempos de un proyecto de investigación. Una descripción de un proyecto contiene una división de tareas temporal, y cada tarea viene con una descripción, los resultados esperados, y los informes de fin de tarea correspondientes. La idea que se exponía era simplemente "usar la descripción de los proyectos de investigación como marco para el desarrollo de las entradas del blog". Así, a medida que se avanza en la ejecución del proyecto, también se divulgan las entradas del blog con las descripciones y resultados de las tareas del proyecto.  Parece un mecanismo sencillo, eficaz  y que costaría muy poco introducirlo en las propuestas de proyectos de investigación, como parte de la estrategia de divulgación científica de los nuevos proyectos H2020.

viernes, 23 de agosto de 2013

300 palabras al día

No conozco a ningún trompetista profesional, pero estoy seguro que si lo eres, tocas la trompeta casi todos los días un par de horas. Si dejas pasar una semana sin tocar, es como si te se atrofiaran los dedos y te falta un "algo" que no te deja vivir. Tampoco conozco a ningún nadador olímpico (solo de vista, de la TV), pero también pondría la mano en el fuego que se pasan bastantes horas al día a remojo, piscina arriba y piscina abajo. Estos dos ejemplos, y otros miles que os podría contar aquí (pero creo que vais a pillar enseguida el punto), nos viene a dice que si quieres ser un experto en algo o perfeccionar alguna faceta que sientes que no la poseas, simplemente hay que practicarla todos los días. No hay más: Práctica, práctica, práctica!.

El investigador no es distinto a un trompetista o nadador. Una de las tareas primordiales de un investigador es escribir. Escribir un proyecto, escribir un articulo científico, escribir una capítulo de libro, un libro, la revisión de un artículo, y también, claro está, escribir un entrada de blog de divulgación científica. Escribir todos los días me parece la mejor formar de alcanzar el "Olimpo de los Escritores".

Una vez asimilado que hay que escribir diariamente (salvo rotura de radio en ambos brazos), la siguiente pregunta os la podéis imaginar: ¿Cuanto escribo? ¿1000, 500, 300, 100 o 50 palabras? Dependen de ti y de lo cómodo que te sientas escribiendo. Si eres de por sí de tecla fácil, ponte un limite mínimo de palabras alto. Aunque lo más conveniente es empezar de forma conservadora, digamos unas 300 palabras, e ir incrementando a medida que tus dedos y mente se conecten vertiginosamente. No menosprecies las 300 palabras diarias, ya que son únicamente 2 o 3 párrafos, porque al cabo de una semana se convierten en 1500 palabras, y al mes son 6000 palabras, y ya tienes un artículo para un revista científica.

La próxima vez que alguien te diga: "Ya que a ti te se da mejor eso de escribir, podrías...", ya sabes lo que viene como respuesta.

viernes, 26 de julio de 2013

A vision for data science (toolkit)

Data Science (la ciencia de los datos) y Big Data son términos en boga. Muchos proyectos de investigación  se centran únicamente en la recolección de datos y su posterior almacenamiento en enormes  repositorios. Sin embargo, el verdadero valor que puede potenciar el despegue de los datos como ciencia no es su recolección tal cual sino en la disponibilidad de herramientas de análisis,  integración,  búsqueda y transformación de datos que sepan operar con grande volúmenes de datos complejos, de tipos distintos y contextos variados, como los que se encuentran en Big Data. El termino ciencia en Data Science se refiere pues a la necesidad de encontrar nuevos algoritmos de integración que sepan unir (no reescribir en otro lenguaje otra vez) piezas ya existentes, ponerlas a trabajar en arquitecturas basadas en módulos integrables y compatibles con los requisitos de Big Data, y que ademas sepan sacar el máximo jugo a esos datos. Complicado? Mejor reutilizar y convertir formatos de datos que escribir miles de algoritmos de nuevo, no? Todo esto nos lo cuenta Chris A Mattman, jefe del proyecto para iniciativas de Big Data de la NASA en el comentario de abajo.
C.A. Mattman. A vision for data science. Nature 493:473-475. doi:10.1038/493473a

domingo, 21 de julio de 2013

Se busca geobibliotecario

The librarian  (El bibliotecario) es un serie de películas al estilo de Indiana Jones, donde el protagonista  es una especie de bibliotecario-aventurero que trabajo para una sección "oculta" de la biblioteca de Nueva York, siempre presto a resolver inteligentemente (por eso es bibliotecario) cualquier situación inesperada.  Aunque la serie no es ningún  prodigio, me he acordado de ella al toparme con las siguientes  ofertas de trabajo para Universidades americanas casi al unisono  (Mayo/Junio 2013):
En resumen, todas las ofertas destacan como requisito fundamental que el candidato/a tenga diploma o máster en documentación con conocimientos en SIG, y ademas, en todas ellas se destacan como tareas preferibles a desempeñar ofrecer servicios de referencia, llevar a cabo actividades de enlace entre departamentos que lleven a cabo actividades haciendo uso de SIG y el mantenimiento de la colección de datos geográficos (creación, organización, análisis y preservación, así como gestión de metadatos). Otras funciones, ya no identificadas por todas las ofertas por igual, son la participación en grupos de investigación internos sobre SIG, desarrollo de proyectos e iniciativas en SIG, alfabetización y actividades de difusión de SIG.

Las ofertas anteriores están acotadas al contexto de las bibliotecas universitarias americanas. Lo cual no significa que deba ocurrir esta tendencia en España. El hecho, casi innegable hoy en día, es que el rol de "geobibliotecario" no existe ni parece que se perciba como necesario  en el contexto español. Sin embargo, creo que estas ofertas ya marcan un claro camino de las nuevas tendencias y roles que las bibliotecas deben adoptar  para mantener su protagonismo en la sociedad actual en general y en el contexto universitario en particular. Desde la perspectiva de un investigador  en IG, me llama poderosamente la atención  los siguientes aspectos de estas ofertas de trabajo 

(1) Se pide como formación primaria documentacion, complementado con conocimientos de SIG a nivel de experiencia y/o formación  En este sentido, me alegra que se conserve la figura del documentalista/bibliotecario como formación primaria pero a la vez especializado en SIG.  Es una cuestión de adaptarse o morir, pero con sentido común  o servicios de una biblioteca deben adaptarse a los cambios sociales y tendencias en tecnologías  y es una realidad hoy en día que la IG es un tipo de datos omnipresente en la vida cotidiana  Cuando nos daremos cuenta en España de esta transformación?

(2) Se hace hincapié implícitamente en la trasversalidad de la IG para muchas disciplinas, con el hecho de que las bibliotecas universitarias ofrezcan un servicio común pero especializado a los departamentos e investigadores de una universidad. En este sentido, la IG deja de ser algo especifico de unos pocos para convertirse en un servicio troncal para la comunidad universidad. Ahora mismo, tan solo hay que ver la emergencia de los proyectos Smart Campus de las universidades españolas para darse cuenta de la importancia del mantenimiento , acceso, compartición y provisión de la IG.

(3) Se enfatiza en el rol de la gestión de estas colecciones por parte de personal bibliotecario especializado, los llamados "geobibliotecarios". No es nuevo que las bibliotecas gestionen colecciones de recursos para la comunidad universitaria  como por ejemplo los repositorios institucionales de artículos científicos. En este caso, por ejemplo, el personal de la biblioteca pide a los investigadores los artículos publicados y se encarga de generar los metadatos correspondientes, publicar todo junto en el repositorio , y suministrar al investigador el handler para que tenga acceso al articulo de forma permanente. El investigador produce los datos (en forma de articulo científico) y el bibliotecario se encarga de su gestión en forma de metadatos, documentacion y registro para facilitar el acceso publico y compartición. 

Y aquí hemos tocado con hueso duro. Eso mismo es el eterno problema en la comunidad SIG. ¿Quien documenta adecuadamente los datos geográficos que se van generando continuamente? ¿Lo hace el creador del recurso? Debería, y así es en algunos casos, pero no es la practica habitual. Parece que hay un gran vacío cuando se aborda la creación de metadatos de recursos SIG. Se percibe en general como una aspecto vital para la comunidad SIG, pero no se vislumbra quién o qué perfil puede desempeñar con claridad ese rol. Evidentemente, existen herramientas software de generación de metadatos que hasta cierto punto ayudan a rellenar algunos descriptores de metadatos aunque la supervisión humana es aun necesaria. Tal como ocurre con el ejemplo del mantenimiento de la colección de  artículos científicos en un repositorio institucional, ¿podría ser el "geobibliotecario" la persona adecuada por formación y conocimientos para la catalogación y documentacion de las colecciones de datos geográficos  No me parece para nada una idea tan descabellada y resolvería un gran problema en la comunidad SIG. 

Tal como anunciábamos anteriormente y mucho antes en el ultimo capitulo del libro "The Fourth Paradigm: Data-Intensive Scientific Discovery", el cual termina con  algunas acciones y recomendaciones para llevar a cabo este cambio hacia una ciencia basado en grandes cantidades de datos. Una de ellas dice (las negritas son mías): 
"Establish digital libraries that support other sciences such as GIS in the same way the National Library of Medicine supports the bio-sciences". 

jueves, 18 de julio de 2013

El rol de GI en documentación

Los servicios basados en la localización (LBS por sus siglas en inglés) responden en función donde uno se encuentra en un momento dado, es decir, su posición actual. Piensa en una app que te muestra las farmacias, restaurantes, tiendas, bares, o cualquier punto de interés cercano a tu posición actual. Si te mueves (cambias de posición), la respuesta del servicio variará según a la nueva localización. Sin embargo, en los LBS actuales, la localización y las tecnologías geo-espaciales son importantes, pero aún no son el corazón del servicio. Todavía se echa de menos servicios realmente especializados, dirigidos a cada individuo, que actúen geo-proactivamente haciendo uso del rico contexto geo-espacial mucho más allá de la mera localización.
En un artículo publicado en EPI hemos sugerido algunos usos de la localización y de las tecnologías geo-espaciales en las unidades de información [1]. Se trata de un primer paso para aupar la localización a un lugar central en el diseño de servicios para colectivos de unidades de información como pueden ser documentalistas. ¿Por qué no buscar libros por la zona donde ha nacido (o reside actualmente) el autor? ¿O por la referencia geográfica del libro (p.e. guía turística de la Toscana) en vez de por su temática o palabras clave? Por qué no recuperar los documentos de cierta provincia o región?
Una agradable sorpresa ha sido encontrarme hace poco con el sitio web Spain in Books. Se trata de un mapa web interactivo que permite enlazar lugares interesantes de España con las temáticas de libros. Selecciona sobre el mapa la Ciudad de las Ciencias y Artes de Valencia y obtendrás la lista de libros asociados. Es simple, cómodo e intuitivo para el ser humano, pero representa un cambio radical con respecto al status quo: la localización se integra por defecto en el interfaz de acceso para la consulta del catálogo de libros. Bienvenidos sean ejemplos donde sitúen la localización en el corazón de la futura generación de servicios!
[1] E. Aguilar-Moreno, C. Granell-Canut. Sistemas de información geográfica para unidades de información. Profesional de la Información, 22(1):80-86, 2013. doi:10.3145/epi.2013.ene.11

miércoles, 10 de julio de 2013

¿Hay alternativa al actual sistema de evaluación científica?

Cada Junio surge la misma discusión a raíz de la publicación  de los nuevos índices de impacto JCR. Parece claro, aunque en realidad  no es así, que estos índices no son adecuados  para la evaluación  de la carrera investigadora de un individuo. Pero las agencias de evaluación y  comités de promoción en las universidades se apoyan casi exclusivamente en el número de artículos publicados en revistas de impacto. Podría y hay alternativas a la métrica basada en únicamente  el numero de artículos. Vamos a desgranar algunas ideas a lo largo de los próximos días.

Se habla de excelencia  en la  investigación e impacto internacional, pero se omite completamente el impacto real de los artículos, es decir, no se tiene en cuenta su contenido. Hay otras métricas que pueden ayudar a dar un valor aproximado de ese impacto. Lo más inmediato es el número citas recibidas de un artículo. Pero claro, otra vez estamos hablando de un número aislado, sin contexto . Todo esto nos lleva a que, mas que hablar del impacto de un único artículo, deberíamos analizar y evaluar el impacto científico de toda una línea de investigación  realizada por un individuo. El impacto científico de una investigación puede incluir varios proyectos de investigación, artículos, capítulos de libros, aportaciones a estándares, colaboraciones en congresos, captación de recursos  y otros tantos  tipos de "recursos" científicos  que analizados de forma conjunta muestren claramente el progreso realizado de un individuo y entonces poder apreciar y analizar su impacto científico.

Tampoco tiene mucho sentido hablar de línea de investigación de un único individuo, sino del grupo o colaboradores con los que ha trabajado. La ciencia no se hace de forma individual, sino colectivamente y estableciendo colaboraciones. Tiene sentido hablar de cómo y en qué grado contribuye un individuo en el grupo y en definitiva a la linea de investigación. Al igual que en un película tenemos el director, guionista, actores, y demás personal con roles bien definidos que llevan a cabo de forma conjunto una película, en ciencia tenemos un grupo de investigadores que persigue desarrollar una línea de investigación  y cada uno de ellos tiene un rol bien definido:  captador de recursos, jefe proyecto, establecer colaboraciones, análisis de datos, buena mano en escribir informes y artículos, etc. A un guionista se le premia por su rol de guionista en una película, a un investigador  se le debería evaluar en función de su contribución al grupo y a la linea de investigación.

El sistema de evaluación  actual cuenta los guiones escritos, sin interesarse si han acabado en película, en el cajón, y ni siquiera saber que historia cuentan.

sábado, 6 de julio de 2013

Ciencia abierta: ¿resultados más rápidos y mejores?

A la gente en su tiempo libre le gusta compartir hobbies con otras personas. También le gusta ayudar, a menudo de forma altruista, en actividades que le motiven. Hay multitud de ejemplos de colaboración voluntaria por parte de la comunidad para recoger datos y luego compartirlos. Con esta premisa, si se pudiera canalizar una pequeña parte del excedente cognitivo de la comunidad [1] para tareas científicas, esto significaría una auténtica revolución para la ciencia: más recursos, más mentes, más datos, más ideas, más de todo.

Ciencia abierta significa hacer públicos los datos de un proyecto científico. Pero no únicamente los datos son públicos, sino los métodos, problemas pendientes de resolver, interpretación de los resultados obtenidos, tareas de diseminación, etc. relacionados con un proyecto científico. El objetivo que persigue es involucrar a la comunidad a que participe en todas las facetas que definen un proyecto científico que sea de su interés. Al fin y al cabo es poner en práctica los principios usados en proyectos de software de código abierto a la Ciencia en general.

Ya hay algunas experiencias interesantes, como el caso de ciencia abierta en que la comunidad ha colaborado en la definición de un proceso de química inorgánica [2] (no soy experto, lo dejamos como "proceso"). Me he fijado en este estudio porque toca cuestiones fundamentales para el éxito de un proyecto de ciencia abierta. Los autores destacan dos puntos claves que también considero de sentido común y necesarios para, al menos encarrilar - que no asegurar-, el éxito de un proyecto de ciencia abierta. El primero es no empezar desde cero. Partir de un núcleo básico. Esto es un patrón común en proyectos de código abierto: el núcleo de Apache Server nació por ejemplo de un reducido grupo de programadores. Luego el proyecto se abrió a la comunidad. El segundo aspecto clave para incentivar la participación de la comunidad es, ni más ni menos, minimizar las barreras de entrada para que la comunidad participe. Mensajes simples, tareas bien definidas, y que quede claro qué se espera de la comunidad en todo momento. Si alguien quiere participar en un proyecto científico, que entienda sin problemas ni ambigüedades cómo puede participar y colaborar en algunas de las tareas. En realidad, dos aspectos de mucho sentido común, caen por su propio peso.

Pero, con una estrategia de ciencia abierta, ¿se obtienen realmente resultados de forma más rápida y científicamente válidos, que con el método tradicional de grupos "cerrados" de científicos? Si es así, ¿se debe elegir un grupo relativamente pequeño de expertos, focalizado en el ámbito de estudio del proyecto, o abrir el abanico a grupos más grandes? ¿Cómo se anima o incentiva a la participación de la comunidad? ¿Cómo se capta y se mantiene el interés de la comunidad en un proyecto? ¿Todas las disciplinas (software, química, medio ambiente, sociales, etc.) son susceptibles de ser utilizadas para la ciencia abierta?

[1] C. Shirky. Cognitive Surplus: Creativity and Generosity in a Connected Age. Penguin, 2010.
[2] M. Woelfle et al. Open science is a research accelerator. Nature Chemistry, 3:745-748, 2011. doi: 10.1038/nchem.1149

miércoles, 3 de julio de 2013

JRC Open Day 2013

El pasado Mayo 2013 fue el Open Day en el JRC, un evento bianual de puertas abierta con el fin de comunicar y acercar al público y a la sociedad en general la ciencia e investigación que se realiza en el JRC. Se realizaron muchas actividades didácticas, juegos y exhibiciones dedicadas principalmente a escolares y a los más pequeños.

Algunas áreas de investigación, en mi opinión, son más dadas a la diseminación que otras. Por ejemplo, la unidad que investiga los envoltorios y el contacto de éstos con la comida. Todo el mundo tiene una idea clara de esto porque ocurre diariamente en la vida de las personas: cuando vamos al supermercado, cuando cocinamos, cuando compramos pan. La comida en estos casos está en contacto con el envoltorio. ¿Qué sucede si ambos entran en contacto durante largo tiempo en condiciones de altas de temperaturas, como cuando olvidamos una paleta de plástico en una sartén al fuego? También me llamó la atención el uso del agua en la producción de ciertos alimentos. Una taza de café necesita 124 litros de agua y un kilo de carne más de 15000 litros de agua! Impresionante, verdad? Deberíamos comer mucho más verde si queremos, además de encontrarnos más sanos, salvaguardar nuestro planeta y ser más sostenibles.

En las geo-ciencias, ¿resulta más fácil o más difícil encontrar este tipo de ejemplos didácticos para la comunicación de la información geográfica y Digital Earth? ¿Cómo explicamos sus ventajas, impacto y valor añadido en las vidas de los ciudadanos? ¿Utiliza la gente Digital Earth en sus tareas diarias? ¿Conoce la gente el valor que supone el uso de la información geográfica?

La Digital Earth Unit hizo un gran trabajo este año, creando una exhibición dinámica con vídeos  juegos con mapas, póster explicativos, apps de crowdsourcing para generar un mapa de ruido, drones,  y sobre todo, hablar mucho y mucho con los visitantes. La gente entraba en la exhibición sin saber que significa Digital Earth y salían con una clara percepción de este concepto, y  muchos de ellos incluso entusiasmados con la posibilidad de participar en proyectos de ciencia ciudadana (citizen science). Tal vez, esta última sea la característica sobre la que los geo-científicos deban incidir para comunicar la información geográfica a la sociedad y enganchar a los ciudadanos en proyectos científicos relacionados de Digital Earth y de impacto para la sociedad.

lunes, 1 de julio de 2013

Cursos de comunicación de la ciencia

Recientemente he terminado un curso en MiriadaX sobre Investigaciócientífica 2.0.1 y al mismo tiempo tuve la oportunidad de asistir a un breve curso de dos días sobre Communicating science to the public impartido  por David Zaruk. Ambos cursos trataron  perspectivas distintas de la comunicación  de la ciencia. El curso de MiriadaX profundizó más en la diversidad de herramientas colaborativas y redes sociales al alcance de un investigador, mientras que el segundo curso se centró en la comunicación vista como un proceso de dialogo para  influir en el receptor, es decir, en identificar la audiencia, la estrategia y el contenido del mensaje dependiendo del contexto particular en que se debe comunicar ciencia. Bien, algunas breves conclusiones personales. 

El primer aspecto clave ha sido valorar adecuadamente toda la riqueza que contiene el proceso de comunicación de la ciencia al público. No hay un tipo, sino muchas estrategias para comunicar ciencia. No hay un único tipo de público, sino muchos tipos públicos que requieren distintos mensajes. No es una tarea trivial y sencilla, sino que requiere esfuerzo, perseverancia y práctica (de ahí este blog!). 

La estructura  del mensaje, la estrategia narrativa, el timing, y el medio en que se va a publicar el mensaje (artículo en periódico, blog, tuits, etc.), son aspectos que hay que tener muy en cuenta ya que dependen del contexto particular en que vamos a comunicar ciencia. No es lo mismo comentar mi opinión personal sobre un artículo de investigación en este blog que, por ejemplo, dar mi opinión como científico sobre un tema controvertido que me pide un comité de ética. La narrativa, el público y el proceso de comunicación son necesariamente distintos en cada una de estas situaciones, lo cual  requiere dar un paso atrás y adoptar la mejor estrategia en cada caso.

Si quieres que alguien se interese por tu mensaje, debes captar su atención antes. Regla de oro. No hay más. A la gente le encanta oír historias... pues usemos historias (storytelling) para captar la atención del público cuando comuniquemos ciencia!

La cantidad y diversidad de herramientas digitales al alcance de la mano de un investigador para difundir ciencia es cada día mayor. Pero no nos abrumemos, no hace falta comunicar en todos los medios. Es buena idea al principio escoger un único medio  (blog, prensa escrita., vídeos de divulgación  redes sociales, etc.) en el que uno se  sienta cómodo y utilizarlo de forma activa y constante. Esto es clave: como toda habilidad, hay que practicarla a menudo para llegar a dominarla.  

Y por último, el objetivo no es que el público se acerque a los científicos y a la ciencia, sino que los científicos se acerquen a la sociedad, y comunicar entonces ciencia sobre las cosas que realmente interesan a la sociedad. 

Un poco de geo-perspectiva...

"A la tercera va la vencida!". Espero que sea así. Este es el tercer intento de arrancar este blog. Varios cambios en la plataforma y en la orientación del blog han causado dos intentos frustrados. Lo bueno, porque hay que ser optimista, es que aún sobra motivación para arrancar por tercera vez.

Este blog pretende hablar de ciencia, y  también pretende hablar de la ciencia que hago, relacionada con la información geográfica.

Este blog también intenta acercar la ciencia a la sociedad. Es un experimento para aprender a comunicar ciencia y en definitiva de intentar dar un paso modesto para dar a conocer el impacto y beneficio de la ciencia de la información geográfica en la sociedad actual. En fin, dar un poco de geo-perspectiva...