Páginas

domingo, 25 de octubre de 2015

Portales translúcidos: "pase, puede mirar, pero no tocar"

Hace unos día las universidades públicas valencianas anunciaron al unísono la puesta en marcha de sus portales de transparencia. Es un paso importante hacia la gobernanza transparente, donde la información institucional, económica, docente, etc. se pone a disposición de la ciudadanía en general. Me ciño aquí al portal de transparencia de la Universitat Jaume I. Con anterioridad al portal de transparencia la UJI ya puso en marcha un portal de datos abiertos, siguiendo la tendencia de universidad abierta. En este portal, la UJI recopila algunos datasets más o menos interesantes, y los facilita en varios formatos para su descarga (csv, json, xml/rdf). Independientemente de la cantidad de datos ofrecidos y de la frecuencia de actualización de éstos, lo cual es otro debate, es de alabar que los formatos de datos sean abiertos, estándares y variados. Un usuario "un poco manitas" puede descargarse los datos en formato csv para examinarlos - por decir con R - mientras otro puede utilizar la versión en json para visualizarlos con JavaScript. De esta forma, los mismos datos pueden producir distintas interpretaciones y visualizaciones, y en definitiva, lograr nuevas interpretaciones de los datos. El caso es que un pequeño matiz, - como ofrecer tres formatos abiertos de los mismos datos- puede propiciar grandes beneficios

Volvamos al portal de transparencia. Sin juzgar la naturaleza de los datos expuestos en el portal, me centraré en dos matices que, a mi entender, son más impedimentos que ventajas para la transparencia. 

El primer matiz es el hecho de que el portal de transparencia y el de datos abiertos sean,  dos portales totalmente independientes, sin conexiones, vínculos  o enlaces que los unan. Dos silos de información que no suman, sino dividen.  

El segundo aspecto que me gustaría destacar es que los datos accesibles a través del portal de transparencia son descargables solo en formato pdf. Como sucede en los carteles de las tiendas de antigüedades: "pase, puede mirar, pero no tocar". Algo así no encaja con la idea de transparencia hacia y con la ciudadanía. 

El "Pase, puede mirar, pero no tocar" iría mejor con portales translúcidos, que lamentablemente son lo que realmente ofrecen muchos portales que se etiquetan como transparentes: Te dejo ver alguna cosa, que yo preparo, y nada más. La transparencia reclama un mensaje mucho más directo al ciudadano: "Oye, ven, porque puedes mirar, tocar, criticar lo que quieras, y tu voz será oída". Los portales de datos abiertos deberían ser el sustrato con el que crecen los portales de transparencia. 

domingo, 19 de julio de 2015

Quiero pero no puedo publicar mis datos

En el mundo académico se ha hablado mucho de la compartición de datos (data sharing). El avance de la ciencia ocurre en gran medida cuando se comparten los resultados de las investigaciones entre la comunidad científica. El artículo científico fundamentalmente cubre esta necesidad. Pero una investigación involucra también datos, datos con los que se realizan análisis y se obtienen resultados de interés. Los datos son igual o más importantes que el artículo escrito en sí. De ahí la necesidad imperiosa - para el avance de la ciencia - en fomentar la publicación de estos datos de forma que otros puedan utilizarlos en sus propias investigaciones. Kratz y Strasser (2015) profundizan en el concepto de publicación de datos desde la visión de los investigadores en un reciente artículo en Plos ONE


John Ernest Kratzm Carly Strasser (2015). Researcher  Perspective on Publication and Peer review of Data. Plos ONE 10(2): e0117619

Los autores nos cuentan que los científicos quieren pero no pueden publicar sus datos. Perciben que es un factor clave en el proceso de investigación científica y entienden los potenciales beneficios de no sólo compartir datos, sino de hacerlos públicos de forma permanente. Aún así hay bastante peros. Peros bastante relacionados con las costumbres y conductas establecidas de los propios científicos más que con las limitaciones tecnológicas que, de hecho son inexistentes, puesto que existen diversas soluciones para promover la publicación de datos (ver artículo para más detalles): 1/ como data paper; 2/ en repositorios generalistas como figshare, dryad, o zenodo; y 3/ en repositorios específicos de disciplinas.

De la encuesta que realizan los autores se desprende la falta de tiempo como argumento principal para la publicación de datos. Escribir un artículo lleva su tiempo. Si además hay que documentar seriamente los datos utilizados en un segundo artículo, a los científicos les entra pereza y evitan el segundo. ¿Por qué? Los autores identifican claramente el quid del asunto, el verdadero problema de la falta de publicación de datos. No es la falta de tiempo, sino falta de reconocimiento académico y/o científico en publicar los datos. Si el sistema de acreditación científica diera tanta importancia al artículo científico tradicional como al articulo de de datos, no estaríamos hablando de "quiero y no puedo", sino "me cuenta y lo hago".  

El artículo profundiza en otros aspectos de la publicación de datos, como los miedos a publicar datos por si otros escriben un artículo científico antes, o a la fata de reconocimiento en forma de citaciones de los datos en otros artículos. Dejo al lector que profundice en estas cuestiones libremente. Para cerrar un simple dato del artículo de Kratz y Strasser (2015): 70% de los encuestados que reutilizaron datos escribieron un artículo derivado. Imaginaos si desaprovechamos ideas cuando no se comparten y publican datos en el contexto científico. 

viernes, 26 de junio de 2015

NYPL busca Space/Time Engineer

La New York Public Library anda buscando perfiles raros para que se unan a se equipo de investigación NYPL Labs. Lo primero es una gozada que una biblioteca tenga un equipo de investigación dentro de la casa. Lo segundo aún más extravagante es que buscan a un candidato/a para crear una subseccion aún más rara dentro de NYPL Labs, que de por si ya es raro. El candidato buscado tendrá el sugerente título de Space/Time Directory Engineer y creará el Space/Time Directory.

El candidato requiere de un perfil técnico en tecnológicas geoespaciales (otra vez!) para dar vida a un servicio geoespacial de recursos históricos. Pero atención, dicho Space/Time Directory combinará colecciones históricas con datos creados y proporcionados por los usuarios (crowdsourced data). En fin, un trabajo ideal para un geobibliotecario/a que alterna con suma facilidad entre:


  • la tecnológica y las ciencias sociales, 
  • las colecciones históricas y los datos en tiempo real de la gente,
  • la diseminación en conferencias y a través de "blogging and hack events", y 
  • la habilidad de escribir excelente prosa y código a la vez.



jueves, 14 de mayo de 2015

#destacables #geography #worldcitations #scimago (14/05/2015)

Edmilson J.T. Manganote, Mariana S. Araujo, Peter A. Schulz (2014). Visualization of ranking data: Geographical signatures in international collaboration, leadership and research impact. Journal of Informetrics, 8:642-649
Los datos esconden muchos patrones ocultos.  Y eso es junto lo que nos muestran Manganote y colaboradores ya que exprimen la base de datos de Scimago Institutions Ranking 2012 para jugar con los datos y hacer visibles algunas diferencias significativas entre universidades estadounidenses, europeas, y chinas en términos de colaboración internacional, liderazgo e impacto de la investigación. 

A pesar de que el título contenga "geographical signatures", que nadie espere un mapa en las páginas del artículo.  Cierto es que un mapa es un tipo de visualización más, que no siempre es el diseño adecuado para informar. Los autores se inclinan por scatterplots tradicionales para mostrar como dos variables están relacionadas lo cual, en mi opinión, es suficiente en el contexto del artículo porque los scartterplots logran resaltar e informar al lector de un patrón significativo entre las variables analizadas. Como decía, hay distintos tipos de visualización y el personal de Scimago Institutions Rankings ha trabajado duro para ofrecer un sitio web interactivo que permite seleccionar distintas visualizaciones, incluyendo mapas y gráficos de distribución, para la misma selección de datos.  

Un mismo conjunto de datos puede contar muchas historias, en función de la pregunta inicial que pretende responder. Una explotación más intensa de la base de datos de Scimago desde diferentes perspectivas, es una excelente idea, siempre que se cite adecuadamente a los autores. Como el trabajo duro es la recolección y puesta a punto de los datos, hay que exprimir hasta la última gota de conocimiento de estos. 

jueves, 7 de mayo de 2015

Big bang ¿geo? data

"...big data refer to things one can do at a large scale that cannot be done at a smaller one, to extract new insights or create new forms of value, in ways the change markets, organizations, the relationship between citizens and governments and more...Mayer-Schonberger & Cukier, 2013

Primero en Barcelona organizado por el CCCB, y ahora en Madrid, Espacio Telefonica, la exposición y serie de actividades relacionadas con el #bigdata alerta sobre el potencial de los datos, para lo bueno y para lo malo.

La exposición introduce conceptos como #datificacion, explicado magníficamente por Mayer-Schonberger y Cukier en su libro Big data: a revolution that will transform how we live, work and think, o ¿de qué forma la toma de decisiones se ve influenciada irremediablemente por la necesidad de disponer de datos, limitando así la creatividad y dando cabida a correlaciones para encontrar nuevos patrones escondidos.

"...dictatorship of data, whereby we fetishized the information, the output of our analyses, and end up misusing it..."

Este tema, entre otros, también ha sido tratado por Eli Pariser en The filter bubble: what the internet is hiding from you. London:Penguin books. 

También advierte de los peligros de perder la privacidad de los datos en pos de una socialización digital, presentando las fotos subidas a Flickr en el transcurso de 24 horas. Que ilusa de mí, incluyen mucha más vida personal de lo que pensaba, mucho más que paisajes y fotos de viajes. A la vez que nos hace reflexionar sobre quién está detrás de estos datos, ¿quién los controla?, ¿quién nos controla?


Fotos impresas subidas a Flickr en 24 horas

Y a pesar de que las palabra geo o GIS no aparecen en el título de la exposición, la presencia de éstos es muy fuerte. Desde la presentación del mítico mapa del doctor John Snow, pasando por diferentes visualizaciones (muy espectaculares algunas) plasmadas sobre mapas o esferas, hasta llegar al poder de la tecnología móvil en conjunción con los sistemas de posicionamiento o geolocalización.

Visualizaciones de datos en globos


domingo, 12 de abril de 2015

#destacables #geography #worldcitations (12/04/2015)

Raj Kumar Pan, Kimmo Kaski, Santo Fortunato (2012). World citation and collaboration networks: uncovering the role of geography in science. Scientific Reports, 2:902
Waldo Tobler enunció la primera ley de la geográfica en 1970 como "everything is related to everything else, but near things are more related than distant things". Este hecho, aunque parezca simple en esencia representa un pilar fundamental en Geografía en cuanto que las cosas que se encuentran más cercanas tienden a estar más relacionadas. Y esto no sólo se aplica al campo de la Geografía, sino que se puede extrapolar a otros tantos dominios y disciplinas.

El artículo de arriba trata de validar la primer ley de Tobler haciendo uso de las redes de citaciones y colaboraciones entre científicos, sin que los autores mencionen explícitamente la ley de Tobler.  La hipótesis de partida es que los científicos tienden a interaccionar con más frecuencia con otros científicos que desarrollan su trabajo en áreas cercanas. Algo así como que los científicos tienden a formar agrupamientos o clústers por el criterio de proximidad geográfica. 

Los autores llegan a la conclusión de que la Geografía importa en la formación de redes de colaboración y citaciones ente científicos.  Se cumple la primera ley de Tobler según la que los científicos prefieren colaborar con los colegas más cercanos. Tras establecer la colaboración, normalmente sigue un incremento de citaciones entre los colaboradores. Resumo los resultados del estudio que me han llamado más la atención.

Las redes de colaboración científica y de citaciones entre dos lugares están correlacionados de la siguiente forma:
  • Científicos de una misma ciudad colaboran con mayor frecuencia que con colegas de distintas ciudades
  • A medida que aumenta el tamaño de la ciudad, la mayoría de las colaboraciones (artículos conjuntos) ocurren en la propia ciudad. En ciudades pequeñas, las colaboraciones ocurren con mas frecuencia con científicos externos a la ciudad.
  • La colaboración se incrementa de forma lineal con la cantidad de citaciones intercambiadas ente dos ciudades o países.
  • Sobre la base de que un artículo firmado por un equipo consigue más citaciones que un artículo de única autoría, el estudio añade que la media de citaciones aumenta con el número de co-autores, y especialmente, con el número de afiliaciones internacionales. Por lo tanto, los autores concluyen, las relaciones internacionales se pagan bien en término de impacto científico.
La proximidad geográfica también tiene un efecto interesante en las redes de citaciones: 
  • La probabilidad de que existan citaciones entre dos ciudades decrece con la distancia entre ellas.
  • Tanto las redes de colaboración como de citaciones tiene normalmente su origen en el entorno (espacial) próximo. En general, colaboraciones y citaciones entre lugares distantes decrecen con la distancia. Hay que matizar que entre dos lugares distantes es más probable que existan citaciones a que se colabore.
Los autores también exploran la relación entre impacto y subvención, en cuanto que el número de citaciones escala linealmente con la cantidad media subvencionada por investigador. Sin embargo, detectan un numero mágico: 100.000 dolares. Si un país gasta de media por debajo de ese umbral, es imposible que dicho país consiga que el numero medio de citaciones por artículo sea mejor que la media mundial. Si se superó el umbral de 100.00 dolares, el éxito tampoco esta asegurado pero la posibilidad de realizar un mayor el impacto científico que la media mundial está sobre la mesa. 

viernes, 10 de abril de 2015

Los deberes en primaria son tan tóxicos e inútiles como las reuniones en el trabajo

Odio las reuniones. Odio las reuniones que únicamente sirven para concretar otras reuniones. Pero eso es otra historia que la contaré otro día. 

Lo que me trae en este post es, tal como ocurre con las reuniones, lo tóxico que pueden llegar a ser los deberes para niños de primaria. Nos lo cuenta este post, que reproduce enteramente una carta abierta de un profesor de secundaria con el valiente título de "Yo Confieso". Ni que decir tiene que otra educación es posible, una que sea mucho más creativa que la actual y menos sujetas a las normas de antaño. 

miércoles, 11 de marzo de 2015

Educación creativa ya!

Últimamente he estado flirteando con recursos didácticos para mi hijo. Aunque ahora estoy en la fase artística (pinceles, acuarelas, temperas, plastelina, goma eva, cortar-pegar, etc.), que por supuesto es perfecto y adecuado, me gustaría más adelante explorar otro tipo de juegos didácticos que potencien su creatividad para la resolución de problemas. Aqui la lsita es larga, desde juegos de construcción magnéticos hasta juegos para aprender a resolver problemas programando. 

Como ando explorando estos derroteros, rastreo cualquier noticia interesante a cerca de la educación creativa. Y esta semana ha sido bastante interesante. Me he topado con tres artículos sobre el tema. El primero es un artículo firmado por Luis Garicano en El País "¿El fin de la clase magistral?". También de El País, "Si facturas 15000 euros, apruebas en esta universidad". Un título chocante, al menos para lo que  estamos acostumbrado en España. Por último, un elocuente post de Libertad González en el blog Nada es gratis.  No voy a resumirlas, mas bien aconsejo su lectura, para que el lector se de cuenta de que algo falla en nuestra sistema y sabemos lo que es pero no hacemos nada por solucionarlo.

Garicano cuenta la anécdota de la defensa de proyectos de estudiantes holandeses de un instituto tecnológico. Sí, de instituto. Los chavales, organizados en pequeños grupos tienen que realizar un trabajo de 200 horas. Debe preguntarse cuales son los objetivos, definir el plan, encontrar las fuentes de información adecuadas, estudiarlas, plantear y diseñar un propuesta de solución, equivocarse, aprender de los error, re-diseñar la solución, escribirla en forma de memoria y, para rematar, explicarla a un tribunal, entre los cuales estaba Garicano. Díganme si eso no es el sueño de cualquier profesor de universidad para sus estudiante de primer curso. 

Libertad González compara, por motivos personales, los datos del informa PISA entre España y Estados Unidos. Todos los detalles y gráficas comparativas están en su post, pero reproduzco aquí una gráfica espeluznante. 


Habla por sí sola. En cuanto se plantean problemas que requieren un planteamiento creativo e intuición para resolverlos, España sale escaldada. 

Cogiendo prestadas algunas ideas de Ken Robinson, solo sabemos con certeza que no tenemos ni idea de como será el futuro, ni qué profesiones habrá dentro de 20 años, ni que problemas tendrán que enfrentarse nuestros hijos. La mejor educación que podemos darles es educarles en la curiosidad continua, el uso de la imaginación, creatividad e intuición para que afronten problemas que aun está por llegar, y superar el miedo a equivocarse que es un verdadero lastre en la cultura y educación española. Y en eso están en la Universidad de Mondragón, donde los estudiantes de primer curso deben poner  en marcha un empresa real y obtener beneficios al final de sus estudios.

Educar en valores para la resolución creativa y práctica de problemas reales es el camino a seguir. ¿Lo va a seguir España? Yo al menos lo intentaré en casa

sábado, 21 de febrero de 2015

Nuevo baremo ANECA

Al hilo de la productividad científica y de como medir la productividad de los investigadores (aquí y aquí),  el nuevo baremo de la ANECA programa ACADEMIApara la acreditación de profesores titulares y catedráticos de universidad viene como anillo al dedo

Empecemos por la pregunta más fácil. ¿Es mejor o peor el nuevo sistema de evaluación que propone la ANECA? Sin duda alguna, el nuevo sistema es mejor que el anterior (aun actual), en cuanto que permite al candidato identificar aquellas aportaciones de su carrera científica que son relevantes y que serán finalmente evaluadas. No hace falta enumerar y justificar cada uno de los items de un investigador, sino únicamente aquellos de calidad y con impacto. Esto simplemente ya supone un ahorro de tiempo y energía considerable para todos. Además, los paneles de evaluación se estructuran en disciplinas concretas, y el resultado positivo de la evaluación da al candidato el derecho de presentarse a concursos de la figura acreditada únicamente del  área (o panel) acreditada. Por ejemplo, si yo me acredito en el panel de Informática, únicamente puedo optar a concursos de departamentos de Informática (antes la acreditación valía para todas las áreas) . 

La pregunta que más me inquieta no es si el nuevo baremo de la ANECA es mejor o peor, más cualitativo o menos cuantitativo, más justo o menos justo. (Todos los baremos son injustos por definición.)  El meollo del asunto está en si necesitamos un sistema de evaluación de profesorado. ¿Se puede prescindir del programa ACADEMIA? 

Imaginemos un escenario en el que las empresas privadas cobran en función del número de clientes, y no en función del valor añadido de sus productos. No importa si el producto es más bueno, rápido o bonito que el de la competencia. Al final de día, el reparto de las ventas globales se reparten entre las empresas de forma proporcional al número de clientes de cada una de ellas. Que una empresa tenga al mejor ingeniero o comercial, no implica que va a tener más beneficios. El valor añadido que pueden aportar empleados de calidad y productivos a sus productos no repercute en los beneficios.  La única forma de aumentar beneficios es aumentando la cartera de clientes, a costa de aumentar los gastos. En ese mercado ficticio, los procesos de contratación de nuevos empleados se devaluarían porque las empresas ya no persiguen fichar al mejor, sino a alguien que puede realizar el trabajo sin mas, exigiendo unos mínimos aceptables a modo de acreditación profesional.

Pero volvamos a la realidad del "mercado" universitario para compararlo con el mercado ficticio de antes. Las universidades son las empresas. Las universidades se financian en base al número de estudiantes (sus clientes). No importa la calidad de tu producto en cuanto a resultados de investigación o docencia que producen los profesores e investigadores. Al final del día: tantos estudiantes, tanto recibes. Entonces, no hace falta fichar investigadores estrella, porque lo que pueden producir influye escasamente en el grueso de la financiación para la universidad. En ese "mercado" real, los procesos de contratación de nuevos investigadores y profesores (empleados) están devaluados porque las universidades ya no persiguen fichar al mejor, sino a alguien que puede realizar el trabajo sin mas, exigiendo unos mínimos aceptables a modo de acreditación a profesor, como hace la ANECA. 

Se puede prescindir del programa ACADEMIA solo si se produce un cambio profundo en el sistema de gobernanza y financiación de las universidades. En ese supuesto, las propias universidad se preocuparían, y mucho, de fichar a los mejores y de realizar sus propios baremos de contratación. Mientras todo siga igual como hasta ahora, el programa ACADEMIA tiene su razón de existir.

miércoles, 11 de febrero de 2015

Geobibliotecas ya está aquí!

Estamos contentos porque acaba de ver la luz nuestro libro "Geobibliotecas" de la Colección EPI-UOC. Se trata de un libro de carácter divulgativo, que trata de acercar los  Sistemas de Información Geográfica (SIG) a las unidades de información y bibliotecarios. Los datos y las tecnologías geográficas pueden ser vitales para encontrar nuevos roles y servicios para las bibliotecas, y para sacar más jugo a las competencias tradicionales de los bibliotecarios para la gestión de colecciones de datos geográficos. En definitiva, el libro intenta mostrar un mundo nuevo de posibilidades que se abre a las bibliotecas como institución como al personal bibliotecario, a través de la incorporación de datos y tecnologías geográficas en el quehacer de las bibliotecas. 

Esperamos que os guste. Y también esperamos vuestro comentarios!




viernes, 30 de enero de 2015

Contexto para la productividad cientifica

Un ejemplo simple y claro de contexto de la investigación para evaluar la productividad e impacto de los investigadores. 

La propuesta viene descrita en el articulo "Assessing Research Productivity". Los autores no inventan un indice bibliométrico nuevo, sino que simplemente utilizan sumas y restas para combinar indicadores existentes con algo de sentido común. Lo describen así:
The metric we used calculates the impact of a research article as its number of citations divided by the publishing journal’s impact factor for that year, divided by the number of years since the article was published. The higher the number, the greater the work’s impact.

Y el resultado obtenido para un artículo se compara, para tener contexto, con el resto de artículos publicados en la misma revista para ese mismo año siguiendo el mismo método:

This value is plotted together with the average impact of all research articles the journal published in that same year (average number of citations for all research articles published that year divided by the journal impact factor for that year divided by the number of years since publication)
Este método no es perfecto, pero es muy sencillo de calcular y es mucho más coherente para evaluar el impacto de un artículo en particular, así como toda la trayectoria científica de un investigador. Un número solo no sirve de nada si no se compara con su contexto.

sábado, 17 de enero de 2015

P = C(V +I)

Convocatoria tras convocatoria, es una realidad que un científico únicamente vale lo larga que sea su lista de publicaciones en revistas científicas. En realidad, serviría únicamente una lista de pares al estilo "2,5: Q1; 1,32: Q2; 0,45: Q4; ..." , donde cada par se corresponde con el índice de impacto de la revista (2,5) y el cuartil que ocupa (Q1). Los científicos nos ahorraríamos tiempo y esfuerzo en compilar todos los datos de las publicaciones cuando únicamente "valen" dos.

Ya he hablado anteriormente de lo nefasto que es el actual sistema de evaluación científica (aquíaquí y aquí). Y estoy seguro que muchos científicos están de acuerdo. Pero las reglas son las misma cada año, y cada una de las nuevas convocatorias a proyectos de investigación o a investigadores no paran de recordarlo. Ahora está a punto de cerrar la convocatoria Ramón y Cajal 2014. Unos 2000 científicos y científicas estarán rellenando su CV, y contando minuciosamente el número de artículo en Q1, Q2, o en el top5 , y haciendo sus pronósticos sobre sí con 10, 15, o 20 artículos este año hay suerte y se pasa el corte de los 175 afortunados. 

Y yo me pregunto: ¿Es mejor un científico con 20 artículos con 0 citas o uno con 5 artículos y 250 citas? ¿Qué científico de los dos tiene mayor impacto? ¿Cual es más productivo? A día de hoy, el volumen es el único criterio, y por lo tanto, el científico con más artículos es el que se lleva el gato al agua. La productividad se mide únicamente por el volumen. Se trata de un sistema cruel para los investigadores que están condenados a publicar sin parar para obtener un puesto fijo universitario por cada 10 pretendientes. 

La productividad también se puede medir en función del impacto de los resultados científicos. Y este criterio debería primar sobre el volumen. Si definimos impacto como la capacidad de que los resultados de un científico son bien recibidos por la comunidad científica e integrados en la base de conocimiento de una disciplina, obviamente el científico con más citas es el ganador esta vez. 

Impacto y volumen son los criterios mínimos para valorar la productividad de un científico. Pero hay que ponerlos en contexto. Un número solo (total de artículos o de citas), sin su contexto, lleva a menudo a interpretaciones erróneas. Contexto es tener en cuenta la distribución de los artículos a lo largo del tiempo para saber si un científico sigue una tendencia creciente o decreciente en su producción científica. Contexto es tener en cuenta la depreciación de un artículo desde que se publicó hasta la fecha actual: mantiene un ritmo de citas regular a lo largo de los años o  únicamente se citó durante los dos años siguientes tras su publicación. Contexto es también comparar el impacto de un artículo en un revista con todos los demás artículos publicados en esa misma revista durante el mismo año, para apreciar si el articulo esta por encima o debajo de la media. Y contexto puede ser mucho más...

El actual sistema de evaluación científica mide la productividad de los científicos en función únicamente del volumen de publicaciones. Es muy fácil crear un simple programa que compare dos cadenas de texto (como 2,5: Q1; 1,32: Q2; 0,45: Q4; ...") y escoja la más larga. El actual sistema deja deliberadamente fuera dos variables críticas: impacto y contexto. Si se quiere ser serios en el proceso de evaluación y selección, hay que valorar la productividad en función del volumen y de su impacto, y todo ello enmarcado en el contexto adecuado que permita evaluar sin ambigüedades la trayectoria de un científico a lo largo de su carrera y compararla con la de otros.

Desvelo aquí la fórmula del asunto de la entrada:
Productividad científica = Contexto(Volumen + Impacto)