Páginas

miércoles, 20 de noviembre de 2013

Nueva bloguera: @eaguilarmo

El equipo de blogueros de geo-palabras se duplica con la llegada de Estefania Aguilar Moreno (@eaguilarmo). Consulta su perfil y su primera e interesenta entrada sobre la publicacion de datos cientificos en abierto

viernes, 15 de noviembre de 2013

Abocados a publicar en abierto, ¿a qué coste?

El gobierno español, a través de la nueva convocatoria de ayudas a la investigación, acaba de apuntar hacia la obligatoriedad de publicar en acceso abierto los resultados de investigación originados con fondos de dichas convocatorias.
Por otro lado también hemos leído una reciente nota publicada en el boletín IPR Helpdesk donde se remarca la necesidad de definir políticas de acceso abierto a las publicaciones científicas, especialmente aquellas que han estado financiadas con fondos públicos. Además de explicar de forma muy sencilla qué es la vía verde y la vía dorada, el artículo recoge varios datos interesantes.


Por un lado el indudable beneficio económico que supone publicar en abierto, en cuanto al desarrollo de ciencia nueva, basada en ciencia accesible, por lo tanto generada a partir de investigaciones previas

[...] the overall economic benefit from increased access to scientific information for the EU 27 at €5 billion a year. This implies potential economic benefits  from  increased  access  to  the scientific  information  emanating  from public funding at €1.8 billion a year [...] (The European IPRHelpdesk bulletin, 11, 2013.p.2 )
Por otro lado, el crecimiento exorbitante de la publicación de trabajos de investigación en abierto nos hace plantearnos algunas preguntas en relación a cuál será la actitud que los investigadores ante esta situación cómo esto podría influir en la calidad de las investigaciones, refiriéndonos al proceso de revisión del estado del arte.


[...] A recent report by Science Metrix suggests that open access has grown faster than expected with around 50% of the papers published in 2011 being available for free in 2013. [...]

Dentro del mundo de consumo rápido e instantáneo de información, ¿Estarán los investigadores dispuestos a esperar que les llegue un artículo a través de su servicio de obtención de documentos de una biblioteca (si tuvieran acceso a ella) o por contra se decidirán a leer exclusivamente los artículos a los que tengan acceso inmediato?

¿Qué pasará con los artículos antiguos, pero quizá muy interesantes, que no han llegado a formar parte de este movimiento de acceso abierto y, por lo tanto, se publicaron tradicionalmente sin el mandato, sea nacional o europeo, de publicar en acceso abierto?¿Acabarán estos citándose únicamente por hacerse eco de otras publicaciones relacionadas, sin ninguna lectura real ni consulta? 

¿Y todos aquellos artículos que nunca serán leídos por nadie, por su bajo interés, quizá más alto si estuvieran en acceso abierto, y que simplemente quedan en un limbo? ¿Merece la pena invertir tiempo en ellos, sobre todo desde el punto de vista del esfuerzo de sus autores? Publicar artículos que nadie va a consultar, leer, ni citar...

Lo que sí que parece claro es que, a parte de los mandatos de diferentes niveles gubernativos, cada vez es menos interesante para un investigador que sus artículos aparezcan en revistas maravillosas e "impactantes", pero antiguas y cerradas. Faltaría ver, si las políticas de evaluación de investigadores también se adaptan a los nuevos tiempos, y empiezan a valorar de otra forma la calidad de la investigación, más allá del Factor de Impacto.

miércoles, 13 de noviembre de 2013

Las Vs de Big Data: Volumen (Parte 1)

Comezamos la serie de las Vs que caracterizan a Big Data para las Unidades de Información con la V de Volumen

Big data implica grandes volúmenes de datos que crecen a ritmos exponenciales. Se cuenta que cada día se generan enormes cantidades de datos nuevos. Cualquiera puede intuir que volumen es una característica de Big Data que ya se sobreentiende. Lo primero que a uno le cruza la mente al leer el término Big Data es justo la referencia al tamaño: enormes conjuntos de datos. Es cierto, sin lugar a dudas se publican cientos de miles de artículos científicos al año, millones de contenido multimedia se comparte en redes sociales, los satélites capturan continuamente imágenes satélites de la tierra, intercambios de ficheros, por no hablar de la avalancha de datos que se generaran cuando los sensores inteligentes (monitorizando ciudades, bosques, cualquier rincón de la tierra e incluso a uno mismo) y el internet de las cosas alcancen un nivel de madurez aceptable. En total, muchos, muchos datos al día.

La Biblioteca del Congreso anunció en 2010 un plan para almacenar cada tuit desde 2006. Tan solo cuatro años después este proyecto, que parecía estancado por la dificultad técnica y los recursos económicos necesarios para almacenar todos esos datos, quizás podría materializarse más rápidamente hoy porque los costes de almacenamiento literalmente tienden a cero y la disponible de herramientas especializadas (algunas sin coste) para almacenar grandes volumen de datos no estructurados. Parece que big data puede solucionar el retraso de unos cuantos años en la Biblioteca del Congreso.

Sin embargo  podemos dar un paso atrás, tomar un poco de aire y perspectiva, y ser un poco críticos antes de dejarnos arrastrar ciegamente por la corriente mediática del Big Data.  

Primero, el big de hoy será el small de mañana.  La percepción de cuanto unos datos son Big varía en función del campo de estudio. Por ejemplo, en GI (información geográfica), los grandes conjuntos de datos son intrínsecos a la disciplina desde sus comienzos. Además, Big es algo dependiente del contexto actual. Tengamos claro pues que seremos capaces de generar datos “superbig” en los años venideros y miraremos atrás para darnos cuento de lo "small" que eran los datos entonces.  

Segundo, cuanto mayor sea la cantidad de datos almacenados, mejores decisiones se podrán tomar para mejorar la sostenibilidad, eficiencia y eficacia de los servicios públicos de las ciudades,  los problemas del medio ambiente y la energía, y, en definitiva, mejorar la calidad de vida de los ciudadanos. Seguro? El almacenaje de datos es barato, el problema es mantenerlos en orden a medida que pasa el tiempo. La curación y preservación de los datos es un problema mucho más complejo que encima se vuelve más enrevesado con la llegada de Big Data (debido a la variedad, como veremos la semana próxima). Debemos entonces almacenar todo y ya nos preocuparemos de preservarlo luego? O debemos almacenar únicamente aquello potencialmente interesante y relevante?

Tercero, no deberíamos preocuparnos tanto por el Big Data. Normalmente no vamos a interaccionar directamente con “los-grandes-datos”. Creo que estoy en lo cierto en afirmar que a nadie le gusta tratar con miles de filas y columnas de datos. Lo normal será que terminemos manejando una porción reducida de éstos, tras un proceso de agregado y filtrado de los big data para extraer datos de valor y relevantes, que sí nos servirán para tomar decisiones fiables. Luego, no deberíamos sentirnos frustrados por la avalancha de nuevas herramientas Big para tratar datos Big. Si somos capaces de obtener conjuntos pequeño de datos significativos, haremos nuestros análisis correspondientes con las herramientas que ya conocemos y que tenemos a nuestro alcance.


Por muy grandes que sean los datos en cuanto a volumen, siempre querremos disponer de porciones reducidas, representativas y manejables, pero que nos permitan llegar a las mismas conclusiones que con los originales. Luego el reto en Big Data no está en el aumento del volumen de los datos, sino en su reducción adecuada

domingo, 3 de noviembre de 2013

¿Hay alternativa al actual sistema de evaluación científica? (III)

Puede que al final se logren sistemas de evaluación sensatos y transparentes que tengan en cuenta al menos las dimensiones del individuo, del grupo que forma parte, y de la sociedad, y que las conciba todas como partes integrales del ser de un investigador. Incluso así, lamentablemente, parece que para los próximos años todos los aspirantes a investigador/profesor en la universidad española simplemente no cabemos.
Aquí caben dos posibilidades. Se aumenta la oferta en la universidad, o se disminuye la demanda. Lo primero no va a suceder en un futuro próximo. Lo segundo podría solucionar parcialmente el problema si por ejemplo los programas de doctorado no fueran destinados únicamente a la formación de doctores "académicos". Estaría bien formar doctores para la industria, que formara parte de grupos de I+D de empresas privadas, ligados a los objetivos del mercado, y en general en busca de patentes en vez de artículos.  

El grupo Biotechnology and Life Science Advising (BALSA) nos cuenta su caso de éxito en el incipiente camino de la formación de investigadores para sel sector I+D privado en el artículo "The missing piece to changing the university culture", publicado en Nature Biotechnology 31, 938–941, 2013. Realmente vale la pena su lectura.