viernes, octubre 10, 2014

El talón de Aquiles del SCImago Journal Rank



INTRODUCCIÓN AL INDICADOR

El Scimago Journal Rank (SJR) es un indicador de impacto de revistas, análogo al Impact Factor de Eugene Garfield, lanzado en el año 2007 por Felix de Moya Anegón y Vicente Guerrero Bote, del grupo de investigación SCImago, y que es utilizado como indicador referente en Scopus. En torno a este indicador, el grupo SCImago presenta su ranking de revistas SJR que, de forma similar a los Journal Citation Reports, clasifica a las revistas por su impacto dentro de diferentes categorías, ordenadas por cuartiles. Podemos decir que es uno de los indicadores con mayor reconocimiento para medir el impacto de las revistas por su forma de valorar la cantidad y calidad de las citas y además es “made in Spain”.

Este indicador posee tres características diferenciales en relación a su análogo, el Impact Factor:

Posee una ventana de citación de tres años. Este hecho, que ya incluía el Índice de Impacto de IN-RECS, hace que aumente la cantidad de información para el cálculo, con los consecuentes beneficios, especialmente en las áreas de humanidades (hay quien los critica porque piensa que provoca un retrato poco reciente de las revistas).
No tiene en cuenta las auto-citas de las revistas. Esta decisión tiene una consecuencia inmediata: las revistas no pueden auto-incrementar artificialmente su impacto si no es con la connivencia de otras publicaciones, lo cual, si no imposible, es desde luego más difícil de conseguir. Aunque también es discutible esta criminalización de la autocitación.
No todas las citas valen lo mismo, sino que las citas están ponderadas y depende del valor de centralidad de la revista que las emite, en una forma similar al Page Rank de Google. Éste es el principal elemento diferenciador y el apartado más novedoso del indicador, pero en él también radica los principales problemas que expondremos a continuación.

THE PROBLEM

El principal problema del que ha sido acusado este indicador es la complejidad de su cálculo, que dificulta, hasta imposibilitarlo, que los resultados sean replicados. Para realizar el cálculo del SJR de una revista se debe poseer el conjunto de citas de todo el sistema, para en primer lugar obtener el valor de ponderación de cada cita recibida por la revista. Es por ello que, una vez que anualmente se publica el impacto de las revistas, los editores de revistas se limitan a aceptar y creer en la validez de los resultados que se convierte en los que clásicamente se conoce como una caja negra.

De esta característica se deriva un problema aún mayor y que tiene que ver con la exactitud de los resultados. ¿Qué pasa si el sistema sobre el que se aplica el SJR comete errores a la hora de contabilizar las citas en una revista? Es decir, ¿qué pasa con los resultados del SJR si la base de datos Scopus no ha tenido en cuenta alguna cita a una revista o por el contrario ha incluido citas inexistentes? Obviamente que esa revista concreta posee un valor que no le corresponde, pero la peor parte es que, a diferencia del JCR, los errores en la contabilidad de las citas no sólo afectan a las revista que reciben o dejan de recibir las citas, sino que se compromete la exactitud de los cálculos de todas las revistas, puesto que tendría que calcularse de nuevo el valor que a la luz de estas nuevas citas tendrían cada revista en el conjunto. --Hay una medida, una proporción, un límite para cada cosa--.EST MODUS IN REBUS.

Y llegados a este punto la pregunta clave es, ¿cómete Scopus este tipo de errores? Sí y por lo que personalmente conozco, los comete en un porcentaje preocupante. En un examen rutinario, cuando se publicó el SJR 2013, identificamos que a la revista Comunicar no se le estaban contando 17 citas recibidas en 2013, de las cuales 6 le hubiesen contado para el SJR 2013 (la misma revista no mostró pérdida de citas en Web of Science). ¿Corrige Scopus estos errores? Pues parece ser que no, una vez que se hacen públicos los valores del SJR no se modifican, por lo que, lo único que se puede hacer es reclamar que se corrijan y se tengan en cuenta para el cálculo de otros indicadores el siguiente año.

Creemos que Scopus, y el grupo SCImago, deberían ser más proactivos y reactivos al problema, conscientes de la “sensibilidad” del indicador que utilizan, están obligado a reducir los errores de precisión y exhaustividad en la indexación de artículos y a crear procesos de corrección de errores. Para ello debe tomar decisiones como aumentar las exigencias de normalización a las revistas y cualquier otro esfuerzo encaminado a  mejorar el proceso de carga e identificación de citas. De forma reactiva deberían crear herramientas de control de fallos.

Si la respuesta a esos errores no afecta al conjunto de los resultados, estamos dispuestos a creerlo aunque no pase de ser una afirmación de muy difícil demostración, pero las consecuencias puntuales sobre algunas revistas pueden ser importantes y afectar gravemente a sus posiciones en los listados

CONSEJOS FINALES


Para acabar el post, me gustaría realizar un par de recomendaciones. En primer lugar se hace imprescindible que las revistas científicas incorporen procesos de normalización en las citas, estilo, inclusión del DOI, etc., para que éstas sean fácilmente identificables (algo que debería ser requisito casi imprescindible para la inclusión en Scopus). Igualmente se recomienda que las revistas planifiquen un estudio anual de citas previo al periodo de cálculo del indicador, con el objetivo de detectar aquellas citas que no son tenidas en cuenta por el sistema y puedan ser reclamadas a Scopus a tiempo. Finalmente sería deseable que Elsevier y Scimago incorporasen un sistema de corrección de errores, por ejemplo un primer cálculo del SJR con un periodo posterior de un par de meses para la corrección de errores hasta el lanzamiento de una versión definitiva.

martes, septiembre 30, 2014

Sobre el número de documentos que indiza Google Scholar, reportaje de Jia You en el servicio de noticias de Science

Jia You, periodista científica en Science, publica hoy  en news.sciencemag.org, el blog de noticias de la revista Scienceun reportaje sobre cuál es el tamaño de Google Scholar, haciéndose eco de nuestro último trabajo de la saga Google...: "About the size of Google Scholar: playing the numbers" publicado el 24 de julio de 2014. 

El reportaje, con el provocador título Just how big is Google Scholar? Ummm, traslada el resultado de nuestras pesquisas y no consigue arrancar de Anurag Acharya, el responsable de Google Scholar, este tan preciado secreto de la compañía. Aunque advierte que la cifra mágica es fácil de calcular para él, y resta importancia a la misma. En fin  que lo que es fácil de calcular es difícil de comunicar al público.


Solo recordar que el objetivo de nuestro trabajo fue conocer el tamaño de ese inmenso agujero negro que parece ser Google Scholar. Nos pusimos a hacer cuentas y empleando 4 métodos empíricos diferentes estimamos que el número de documentos únicos (se excluyen las distintas versiones de un documento) no debe ser inferior a los 160 millones (a fecha de mayo de 2014).
Independientemente del resultado, que es significativo por sí mismo sobre todo cuando se compara con el resto de bases de datos de carácter científico, y que nos da pistas sobre la cantidad de conocimiento científico que puede ser buscable, localizable y accesible en la web, lo más apasionante es el reto metodológico que ha supuesto. No sólo nos ha obligado a idear  diversas técnicas para medir el tamaño de este oscuro objeto que es Google Scholar sino que aplicándolas han salido a la luz, de nuevo, diversas inconsistencias, incertidumbres y limitaciones de las herramientas y el interfaz de búsqueda usado por Google. En fin, hemos aprendido más sobre lo que hace o no hace Google Scholar y queremos compartirlo con todos vosotros.

Llega esta investigación en un buen momento, ya que en los últimos meses se alzaron voces en las redes sociales por parte de egregios bibliómetras, apostando por el uso de Google Scholar en evaluación científica. Qué lejos parecen quedar ya las actitudes de algunos “puretas” de la bibliometría que abjuraban de Google Scholar, por impuro e incontrolado, y que miraban no solo con indiferencia sino con desdén a aquellos que anunciábamos las enormes potencialidades del buscador académico (The Google Scholar family: is it an alternative for the evaluation of science). Ahora cuando los estudios empíricos (Google Scholar Digest) demuestran día a día que Google Scholar y sus productos derivados son los productos más usados por los científicos, que han acabado desgraciadamente con la competencia (Microsoft Academic Search está más muerto que vivo) y que miden con parecida solvencia a los tradicionales indicadores bibliométricos, algunos de forma oportunista han decidido subirse al carro. No obstante, y sin querer rebajar las expectativas despertadas, queremos subrayar que los problemas de Google Scholar para la evaluación científica no son técnicos ni metodológicos (cobertura, fiabilidad y validez de las medidas, prestaciones de filtrado de documentos) sino la facilidad con que pueden ser manipuladosla fugacidad de los resultados y de las medidas, en muchos casos difíciles de reproducir de manera estable, así como la dependencia tecnológica de compañías que elaboran herramientas que aparecen y desaparecen en el mercado cual producto de consumo.

Sean bienvenidos los ahora entusiastas de Google Scholar; mientras tanto nosotros seguiremos con ahínco en lo que ya nos propusimos hace varios años: desvelar “con datos”, no con meras opiniones, las entrañas de Google Scholar, para desvelar a un mismo tiempo sus fortalezas y debilidades. Por eso, al igual que los decimonónicos folletines publicados por entregas, cuyo correlato actual son las telenovelas, sólo podemos prometer que CONTINUARÁ…. y será pronto… esperemos no cansaros demasiado.


Emilio Delgado López-Cózar
Huétor Vega, 30 de Septiembre de 2014

sábado, agosto 23, 2014

Google da un lavado de cara a sus Google Scholar Profiles=Google Scholar Citations

Antesdeayer, jueves 21 de agosto de 2014, Google decidió remozar la apariencia de sus Google Scholar Profiles, también conocidos como Google Scholar Citations, la herramienta lanzada en versión beta restringida el 20 de julio de 2011, y en versión abierta a todos el 16 de noviembre de 2011. El producto sigue teniendo la misma finalidad
  • Permitir a los autores científicos construir un perfil bibliográfico con todas sus publicaciones , haciéndolo visible en los buscadores
  • Posibilitar que los autores puedan seguir o ser seguidos por otros científicos, recibiendo alertas automáticas de las nuevas publicaciones y/o las nuevas citas
  • Generar automáticamente unos básicos y primarios indicadores bibliométrico
y la misma filosofía: el “laissez faire, laissez passer”. Se deja total libertad a los autores para que puedan configurar el perfil a su entero gusto y beneficio desde su identificación personal, profesional y temática hasta la vinculación de la producción bibliográfica que estimen pertinente pasando por el modo de actualización del perfil (automático o no). El autor puede añadir, editar, y eliminar los registros bibliográficos tal como le venga en gana. Google se despreocupa de la posible veracidad y precisión de los datos y deja en manos del autor toda la responsabilidad sobre lo mostrado. Así pueden ocurrir situaciones tan extravagantes como:
En cualquier caso, queda claro que la responsabilidad última es del autor y no alcanza a Google: el perfil retrata a quien lo elabora. Esta amplia autonomía que Google concede al autor trasluce la filosofía desde la que se ha diseñado este producto: un sistema de información orientado al usuario; creado por y para él. Una inteligente manera no sólo de reducir costes de tratamiento y gestión de la información sino de hacer que el usuario trabaje para el sistema.

Como ya indicamos en el título el cambio es estético aunque, como acostumbra la compañía de Mountain View, no meramente ornamental, pues algunas prestaciones de la anterior versión se han esfumado.  Reproduzco a continuación unos pantallazos de lo que era la versión anterior y de lo que es ahora para ilustrar fácilmente las modificaciones introducidas



Los cambios son fundamentalmente de visualización y de organización de la información:
  • Colores: el verde y azul han dado lugar al blanco
  • Los información bibliométrica se ha trasladado al lateral de la pantalla.
  • Se han cambiado las opciones de edición de la lista de publicaciones del perfil, antes todas reunidas en un desplegable, y ahora separadas. La de añadir nuevas publicaciones, que una función central se ha privilegiado situándola en la cabecera de la lista de publicaciones, mientras que las de combinar, eliminar  o exportar se activan cuando se selecciona alguna publicación.
  • Se ha destacado claramente la opción SEGUIR, llevándolo del lateral a la cabecera, e incrustándolo en un botón de color azul muy llamativo.
  •  Se facilita la posibilidad de mostrar más de 20 publicaciones, permitiendo listados de 100 o de todas las publicaciones. Esta es una mejora facilita mucho la tarea de combinar registros, que antes era sumamente engorrosa.
  • Se posibilita crear una versión impresa del perfil, persiguiendo mostrar de la forma más bonita y clara lo que se ve en la pantalla.
  • En el diagrama que resumen la evolución del número de citas ahora se ofrece la cifra exacta de citas recibidas por año y se restringe el período cronológico mostrado en el histograma a 9 años. Si se desea ver el historial de citación completo de un autor es preciso pinchar dos veces sobre el gráfico y se activa una nueva ventana donde puede ser visualizado de manera completa
Todos estos cambios estéticos parece que se orientan a mejorar la visualización y usabilidad de los perfiles en teléfonos y tabletas.


Pues bien dicho esto,  queda claro que Google no ha añadido ninguna prestación nueva (salvo la de imprimir una versión “noble” del perfil y la de ofrecer el número de citas). Pero lamentablemente, nos ha quitado dos:

- Ha restringido el período cronológico mostrado en el histograma de citas. Independientemente de cual sea el historial científico de un investigador ahora la fecha más antigua mostrada es 2006 (A los pocos días de escribir esta nota Google rectificó y e introdujo el histograma completo de citación. Haciendo clic sobre el histograma abreviado se abre una imagen ampliada y detallada de todo el perfil ). 
- También se ha eliminado la información sobre el número de seguidores que tiene cada autor.
Se trata de dos cambios dolorosos para las prestaciones bibliométricas del producto, ya que conocer toda la trayectoria de un investigador en términos de citas según Google Scholar era magnífica. Igualmente era útil saber el interés que despierta la publicación actual de un autor, a través del número de seguidores que posee.

Parece claro que Google no está demasiado interesado por la vertiente bibliométrica del producto, además de no querer transitar por los mismos caminos por los que circulan los programas de redes sociales generales y académicas.

Y por último, resta referirme a aquello que sigo echando en falta. Fundamentalmente la posibilidad de que los autores puedan participar en la edición de las citas, esto es, vincular documentos citantes y citados, o eliminar citas atribuidas incorrectamente a un documento, solo para los casos en que el robot no ha sido capaz de hacerlo correctamente y, por supuesto, para aquellos documentos que figuren indizados en Google Scholar. Del lado bibliométrico, sería muy recomendable como venimos pidiendo reiteradamente ofrecer la tasa de autocitación de autores así como información sobre la procedencia de las citas (dominios, tipos de documentos, autores, instituciones...). Una carta anticipada a los Reyes Magos.

Todavía recuerdo cuando era niño como en mi pueblo, como en tantos otros pueblos andaluces, al llegar el verano era el momento de encalar las casas. Parece que Google, ha decidido hacer lo mismo con su producto, solo que al final del verano y con el único propósito de embellecerlo.
Emilio Delgado López-Cózar
Huétor Vega, 23 de agosto de 2014

martes, agosto 05, 2014

Índice H de las revistas de Comunicación según Google Scholar Metrics (2009-2013)

Google Scholar Metrics ha realizado una tercera actualización (Google Scholar Metrics 2014: una herramienta bibliométrica "low cost"), lo que nos ha permitido volver a sacar el listado de revistas de Comunicación ordenadas según este producto, y ya van tres (2007-2011 y 2008-2012).
Este listado permite contextualizar a las principales revistas de Comunicación (aquellas que registra Google Scholar Metrics) dentro de sus diferentes entornos; nacional, regional e internacional, una visión que actualmente no ofrece ningún producto de manera tan exhaustiva.



Como resultado de esta nueva actualización el índice de revistas de Comunicación asciende a 434 revistas. En relación al listado de revistas del anterior índice (2008-2012), se incorporan 113 revistas, mientras que 26 desaparecen.

Repiso, R. y Delgado López-Cózar, E. (2013). H Index Communication Journals according to Google Scholar Metrics (2008-2013). EC3 Reports 10, 24. July, 24, 2014. [ENLACE]



jueves, julio 24, 2014

El factor invisible de los rankings de universidades: la tesis del Nicolás Robinson


Con un poco de retraso por la modorra estival hoy os presentamos llenos de orgullo y satisfacción que el Grupo EC3 cuenta con un nuevo doctor: Nicolás Robinson García. Nicolás defendió con éxito hace unos días su tesis doctoral titulada Classifiyng and Visualizing the Disciplinary Focus of Universities: The Invisible Factor of Universities Rankings.

Tal y como versa el título, lo suficientemente explicativo, el candidato Robinson nos desveló que se esconde detrás de los dichosos rankings de universidades, principalmente a través de diversas técnicas de análisis multivariante y más concretamente con el análisis de redes sociales y el Journal Publication Profile. Aquí tenéis la presentación: 


Si quiero hacer notar el mérito más extraordinario de esta tesis doctoral  basada en la modalidad de presentación de artículos científicos. Concretamente el candidato Robinson puso sobre el tapete cinco trabajo científicos, 4 de ellos en revistas JCR-Q1 y 3 además como primer autor, que defendió sobradamente. Son los siguentes: 

  • Robinson-Garcia, N.; Torres-Salinas, D.; Delgado López-Cózar, E.; Herrera, F. An insight on the importance of national university rankings in an international context: The case of the I-UGR Rankings of Spanish universities.Scientometrics. Online first. doi:10.1007/s11192-014-1263-1 
  • Robinson-Garcia, N.; Calero-Medina, C. What do rankings by fields rank? Exploring discrepancies between the organizational structure of universities and bibliometric classifications. Scientometrics, 98(3), 1955-1970. doi: 10.1007/s11192-013-1157-7
  • Torres-Salinas, D.; Robinson-Garcia, N.; Jiménez-Contreras, E.; Herrera, F.; Delgado López-Cózar, E. (2013). On the use of biplot analysis for multivariate bibliometric and scientific indicators. Journal of the American Society for Information Science and Technology. 64(7): 1468-1479. doi:10.1002/asi.22837.
  • Garcia, J.; Rodriguez-Sanchez, R.; Fdez-Valdivia, J.; Robinson-Garcia, N.; Torres-Salinas, D. (2012). Mapping Academic Institutions According to Their Journal Publication Profile: Spanish Universities as a Case Study. Journal of the American Society for Information Science and Technology, 63(11): 2328-2340. doi: 10.1002/asi.22735
  • Robinson-Garcia, N.; Rodriguez-Sánchez, R.; García, J.A.; Torres-Salinas, D.; Fdez-Valdivia, J. Análisis de redes de las universidades españolas de acuerdo a su perfil de publicación en revistas por áreas científicas. Revista Española de Documentación Científica, 36(4), e027. doi:10.3989/redc.2013.4.1042Complementary material available

Ante tan brillantes resultados poco más se puede decir de la valía y del futuro científico del doctor Robinson, solo nos queda desearle un feliz, descansado y merecido verano, mandarle un fuerte abrazo y animarle a seguir adelante en el mundo académico:

Run, rabbit run. 
Dig that hole, forget the sun, 
And when at last the work is done 
Don't sit down it's time to dig another one. 
Breathe, Pink Floyd

El Robin se puso literario al final de la tesis

martes, julio 08, 2014

Índice H de las Revistas Científicas Españolas según Google Scholar Metrics (2009-2013)

Nos es grato anunciar la publicación del Índice H de las revistas científicas españolas según Google Scholar Metrics (2009-2013), donde puede encontrar el impacto de las revistas científicas españolas a partir del recuento de citas que ofrece Google Scholar Metrics.
Este producto surge a fin de superar una limitación importante de Google Scholar Metrics. A saber: A día de hoy no permite agrupar y ordenar las revistas según su país de publicación. Google se ha decantado por ofrecer sus rankings generales por lenguas (muestra las 100 que mayor impacto poseen), permitiendo solo en el caso de las revistas en inglés, rankings por áreas temáticas y disciplinas. En este caso solo presenta las 20 revistas con mayor índice h. De esta opción han quedado excluidas las revistas de los otros nueve idiomas en los que Google presenta listados (chino, portugués, alemán, español, francés, japonés, holandés e italiano). Google solo ofrece directamente información de 62 revistas españolas que mayor impacto poseen. Dichas revistas figuran dentro del listado de las 100 revistas en español de mayor índice h.
Los rankings se organizan por campos científicos y disciplinas de las revistas científicas españolas que figuran en Google Scholar Metrics (GSM). Se han identificado 1003 revistas, de las que 520 son de Ciencias Sociales, 218 de Arte y Humanidades, 146 de Ciencias de la Salud y 119 de Ciencias Naturales e Ingenierías.


Puede acceder al índice pinchando en esta dirección:


Este trabajo es continuación directa de los publicados para los períodos

2008-2012
 Ayllón Millán, J.M.; Ruiz-Pérez, R.; Delgado López-Cózar, E . Índice H de las revistas científicas españolas según Google Scholar Metrics (2008-2012). EC3 Reports, 7: 18 de noviembre de 2013. Accesible: 


2007-2011
Delgado López-Cózar, E.; Ayllón, JM, Ruiz-Pérez, R. (2013). Índice H de las revistas científicas españolas según Google Scholar Metrics (2007-2011). 2ª edición. EC3 Informes, 3: 9 de abril de 2013. Accesible en:


Queremos subrayar que el objetivo último de este trabajo es comprobar la amplitud en la cobertura que posee Google Scholar Metrics de las revistas científicas españolas, en consonancia con la línea experimental abierta por el grupo de investigación EC3 dirigida a testar las posibilidades de Google Scholar y sus productos derivados para fines evaluativos.

domingo, julio 06, 2014

Participación en las IX Jornadas Medes

El pasado 3 de julio el Grupo EC3 hemos participado en las IX Jornadas Medes en el marco de los cursos de verano de la Complutense - El Escorial. En estas jornadas, tal y cómo se indica en su web, se debaten temas relacionados con las publicaciones científicas en español, su contribución a la formación médica, su aceptación y uso, sus dificultades de difusión y acceso, la sostenibilidad de las publicaciones científicas en español, etc. 



Pues bien, el Grupo EC3 ha contribuido este año con dos comunicaciones. La primera a cargo de D. Emilio Delgado López-Cózar titulada: Evaluación de la investigación en Acceso abierto: revisión por pares impacto.

 La segunda a cargo de un servidor y titulada: Radiografía de la investigación biomédica española en el contexto de la Unión Europea: tendencias, especialidades e impacto internacional.

En el caso de la última hemos preparado el siguiente vídeo: 



Tenéis más información en:

miércoles, julio 02, 2014

Google Scholar Metrics 2014: una herramienta bibliométrica "low cost"

Acaba de hacerse pública la versión 2014 de Google Scholar Metrics. Este año Google nos ha obligado a cambiar de discurso: nada de sorpresas, continuidad y estabilidad. Casi con puntualidad de relojero suizo, Google acaba de publicar el día 26 de junio de 2014, un mes antes de cuando lo hiciera el año pasado (24 de julio de 2013), su ranking de publicaciones científicas: Google Scholar Metrics (GSM). GSM ha dejado de ser diferente: parece que a partir de ahora, todos los veranos ─bien en el mes de junio, como el año pasado, o en el mes de julio como éste─, dispondremos de los ansiados listados de revistas ordenados por su impacto científico, léase su índice h. Por tanto, GSM se homologa a la competencia (JCR  y SJR) cuya periodicidad, como es bien sabido, es anual.

No podemos más que congratularnos de que la compañía norteamericana haya decidido mantener GSM, un producto gratuito a la par que distinto a los rankings de revistas tradicionales, y que le haya dado este espaldarazo que, por otra parte, podría disipar las dudas y elucubraciones sobre la continuidad de su hermano mayor, Google Scholar. La competencia es sana y los científicos no pueden más que agradecer esta variedad de herramientas de búsqueda y  ordenación de las publicaciones científicas, sobre todo, cuando se ofrecen sin coste alguno.

Normalidad y continuidad presiden esta edición, pues no hay más novedad que la supresión de algunas subcategorías temáticas (se pasa de 313 a 303) en que se clasifican las revistas publicadas en lengua inglesa.  En definitiva; Google se ha limitado a actualizar los datos, por lo que, persisten algunos de los errores y limitaciones señaladas en trabajos previos: la visualización de un limitado número de revistas (100 para las que no son editadas en inglés), la falta de categorización por áreas y disciplinas de las revistas no inglesas y los problemas de normalización (unificación de títulos de revistas, dificultades de enlazado de documentos, problemas en la búsqueda y recuperación de títulos de publicaciones).
Algunos errores de GSM
Como hemos venido haciendo todos los años en el documento que os podéis descargar abajo se analizan las características más significativas de la tercera edición de GSM, publicada en junio 2014, subrayando las novedades, fortalezas y debilidades más importantes. Se presentan asimismo cifras (número de revistas visualizadas,  tipos documentales, idiomas, índice h y mediana máximos y mínimos por idioma, categoría y subcategoría temática) que caracterizan las dimensiones de esta nueva edición y se comparan con las ediciones anteriores.
LEER EL DOCUMENTO COMPLETO 

Martín-Martín, A.;  Ayllón, J.M.; Orduña-Malea, E.; Delgado López-Cózar, E. (2014). . Google Scholar Metrics 2014: una herramienta bibliométrica de bajo coste. EC3 Working Papers, 17 : 30 de junio de 2014

Emilio Delgado López-Cózar
Huétor Vega, 2 de julio de 2014 

jueves, junio 19, 2014

Curso en la Universidad Jaume I

Esta semana, Daniel Torres-Salinas y un servidor (Rafael Repiso) hemos estado en Castellón, impartiendo un curso a los profesores y doctorandos de Comunicación de la Universidad Jaume I (y a algún profesor de otro departamento y personal administrativo de Biblioteca y el Servicio de Publicaciones. Es la segunda vez que visitamos la universidad, hace dos años ya estuvimos impartiendo un curso similar (señal de que no quedaron muy descontentos [enlace]).
JaumeI
En esta ocasión se impartieron dos cursos, "Cómo Publicar en Revistas Científicas de Impacto [4ª ed.]" y un nuevo curso de un tema clásico "Peer Review".
Solamente nos queda agradecer la acogida a la que ya nos tienen acostumbrados los profesores de la Universidad Jaume I, y agradecer específicamente a Javier Marzal, Andreu Casero, Vicent Falomir y el resto de profesores y PAS su amabilidad y acogida. Dentro de dos semanas estaremos en la Universidad San Pablo CEU dando otro curso a los profesores de Comunicación.




jueves, mayo 29, 2014

Se publica la 5ª edición - 2014 de los Rankings I-UGR de Universidades Españolas según Campos y Disciplinas Científicas

5ª EDICIÓN DE LOS RANKINGS I-UGR

Se publica la quinta edición de los Rankings I-UGR de las Universidades Españolas según Campos y Disciplinas Científica 5ª ed. 2014:


Se trata de un ranking de universidades públicas y privadas españolas basadas en la investigación publicada en las revistas internacionales de mayor impacto y visibilidad.

El objetivo principal de estos rankings es descubrir las fortalezas y debilidades del sistema universitario español de investigación en diferentes ámbitos del conocimiento. Se ofrecen rankings de universidades para 12 campos y 37 disciplinas científicas de manera que pueda captarse mejor en qué especialidades son más influyentes las universidades.



RESULTADOS GENERALES

Ralentización al crecimiento: En el año 2013 el sistema universitario español ha publicado 42845 trabajos en las mejores revistas científicas, un 3% más que en 2012. El crecimiento se ralentiza ya que el promedio de crecimiento durante la última década se situaba en el 9%. De esta forma se crece a un ritmo inferior.

Decadencia madrileña: De los 12 campos 8 están liderados por las universidades catalanas que copan también los primeros puestos de forma sistemática en la disciplinas en contraposición a las universidades madrileñas que pierden posiciones y ya no lideran ningún campo científico, tan solo dos disciplinas periféricas.

Los ejes periféricos: Solo Andalucía y la Comunidad Valencia hacen algún frente al dominio de las universidades catalanas. Andalucía lidera dos campos científicos y 6 disciplinas. El eje valenciano no destaca en ningún campo y pero si consigue tres primeros puestos en las disciplinas, si bien es cierto se constata la caída de ediciones anteriores.

RESULTADOS POR UNIVERSIDADES

Cataluña

La Universitat de Barcelona lidera 6 campos y 12 disciplinas principalmente las relacionadas con los ámbitos de las ‘Ciencias Biológicas’ y la ‘Medicina y Farmacia’ aunque también consigue liderar ‘Otras Ciencias Sociales’ y ‘Psicología y Educación’. La Politécnica de Catalunya ocupa el primer puesto en el campo de las ‘Ingenierías’. Asimismo se sitúa en primer lugar en disciplinas como ‘Ingeniería Industrial’,  ‘Automática y Robótica’ y ‘Telecomunicaciones’.

Pompeu Fabra mantiene su primer puesto en el campo de ‘Economía Empresa y Negocios’ y destacan sus primeras posiciones en disciplinas como ‘Genética’, ‘Salud Pública’, ‘Economía’, ‘Sociología y ’Multidisciplinar’.  La Autónoma de Barcelona consigue posicionarse en 5 campos como la segunda universidad y en las disciplinas copa la primera posición en: ‘Ecología y Medioambientales’, ‘Veterinaria y Ganadería’ y ‘Geografía y Urbanismo’.

Comunidad de Madrid

Es reseñable en el eje madrileño que la Complutense pierde posiciones en relación a la edición anterior y ya no destaca de forma relevante en ninguno de los campos, solo en las disciplinas, en ‘Odontología’, aparece en primera posición.  La Autónoma de Madrid lidera el campo de ‘Física’. Finalmente subrayamos como la Rey Juan Carlos consigue el primer puesto en la disciplina de ‘Rehabilitación y Fisioterapia’.

Andalucía             
               
En Andalucía Granada obtiene el primer puesto en el campo ‘Tecnologías de la Información y Comunicación’ y en el caso de las disciplinas lidera las siguientes: ‘Estadística’, ‘Actividad Física y del Deporte’, ‘Informática’, ‘Documentación’ y ‘Educación’. Destaca asimismo el primer puesto alcanzado por Córdoba en el campo de ‘Ciencias Agrarias’ y en la disciplina de ‘Agricultura’.

Comunidad Valenciana

En esta edición ninguna de las universidades consigue liderar ningún campo. A nivel de disciplinas la Politécnica de Valencia consigue el primer puesto en ‘Ingeniería Industrial’ y en ‘Arquitectura’ y la Universitat de Valencia en ‘Tecnología de los Alimentos’

Otras Universidades
               
Hay que mencionar el primer puesto alcanzado por Santiago de Compostela en el campo de ‘Matemáticas’. Por disciplinas logran la primera posición: País Vasco en ‘Ingeniería Química’,  Vigo en ‘Ingeniería Civil’, Navarra en ‘Empresa’ y finalmente la  Universidad IE en ‘Comunicación’.


Los rankings pueden consultarse en el portal: http://www.rankinguniversidades.es

Rankings I-UGR está elaborado por los grupos de investigación EC3-EC3metrics spin off y SCI2S

Síguenos en twiiter: https://twitter.com/rankingsiugr

Contacto: Daniel Torres-Salinas | e-mail: torressalinas@gmail.com | Tlf: 958 255 791