UPV



Ciencia


Publicada By  Juan Marin - Ciencia    

Acabo de terminar mi primera lectura de verano (Bill Bryson (2005). Una breve historia de casi todo). Me ha resultado un libro interesante en muchos aspectos. Pero, además, me ha permitido reflexionar sobre algunos detalles sobre la ciencia en general que me ayudan a relativizar muchas cosas de las que suceden en mi profesión en la actualidad.
Por ejemplo:
* La qu√≠mica es ciencia desde 1661 y una de sus primeras revistas cient√≠ficas data de 1848 (la geolog√≠a, geograf√≠a, zoolog√≠a ten√≠an revistas 20 o 30 a√Īos antes.. y las matem√°ticas y la f√≠sica son ciencias desde much√≠simo antes) y, a pesar de los avances logrados est√°n bastante lejos de poder dar repuesta a muchas preguntas b√°sicas acerca del mundo que nos rodea. No podr√≠a decir en qu√© fecha el management se consolida como √°rea cient√≠fica y se publica su primera revista cient√≠fica (yo suelo pensar que es sobre 1948, pero no tengo ninguna evidencia cierta).
* La meteorolog√≠a empez√≥ como ciencia a finales de 1700 y predice como predice el comportamiento del clima. La psicolog√≠a y el management son mucho m√°s modernas, de modo que no debemos de extra√Īarnos de que siga siendo dif√≠cil predecir el comportamiento de personas, grupos y organizaciones.
* Todas las ciencias han pasado (y quiz√°s siguen atravesando) periodos de devaneo te√≥ricos m√°s que notables. Lo que en un tiempo se considera la verdad absoluta y es defendido a ultranza, en 40-50 a√Īos se demuestra que era incorrecto o incompleto (no solo en la pre-historia de la ciencia, en ciencias asentadas esto ha pasado con frecuencias a lo largo del siglo pasado).
* Casi todas las grandes ideas cient√≠ficas han tardado a√Īos (muchas veces d√©cadas) en ser aceptadas. La reacci√≥n m√°s probable ante las novedades cient√≠ficas es la critica salvaje, desproporcionada y muchas veces infundada para menospreciar la novedad y a su promotor.
* Los sesgos de publicación se han dado siempre y en todas las disciplinas (es habitual que las revistas prestigiosas de cualquier época rechacen la publicación de resultados de investigación que luego han dado origen a premios Nobel)

2017/08/10
  Comentarios
|   Etiquetas: ,  |  

Publicada By  Juan Marin - Ciencia, Investigaci√≥n, Uncategorized    

Con frecuencia recibo consultas acerca de mi opini√≥n sobre la calidad de diferentes revisas. Supongo que me han preguntado porque consideran que soy una persona experta porque he invertido varios a√Īos como subdirector de investigaci√≥n del Departamento de Organizaci√≥n de Empresas en diferentes equipos. O quiz√°s sea por el seguimiento y apoyo que he dado a la comisi√≥n de Indice de Actividad Investigadora de la UPV a trav√©s de una cantidad bastante elevada de “gregales” (sistema de gesti√≥n de incidencias, quejas y sugerencias internas en la UPV) emitidos a lo largo de los √ļltimos 10-12 a√Īos. Tambi√©n es posible que me pregunten por mi experiencia con todo el sistema de indexaci√≥n ya que soy editor jefe o participo en el comit√© editorial de varias revisas “indexadas”.

La √ļltima tanda de preguntas recibidas ten√≠a que ver sobre si se pod√≠a considerar como “indexada” determinada revista. Interesante cuesti√≥n que me ha animado a escribir esta entrada.

Primero quiero insistir en un asunto de terminolog√≠a:  no se deber√≠a hablar de revistas indexadas o no indexadas… indexadas hay miles (es tremendamente sencillo estar indexada en alg√ļn sitio, es decir estar dada de alta en una base de datos de revistas cient√≠ficas). Indexadas con indices relativos hay menos (muchas menos).

Indices relativos tienes en JCR, ScimagoJCR, pero tambi√©n en Journal Scholar Metrics, google citations, DICE, MIAR, ICV de Copernicus … la dificultad est√° en definir cu√°les de los indices relativos son fiables y d√≥nde est√°n los puntos de corte para marcar revistas de prestigio si el √≠ndice no crea bloques o cuartiles. Por ejemplo, Scimago JCR adem√°s del √≠ndice, agrupa la revistas en cuartiles; DICE tiene las revisas agrupadas en 4 niveles de mas a menos calidad;  pero MIAR o ICV-Cop√©rnicus solo ponen un numero (cuanto m√°s grande mejor, pero no sabes los puntos de corte por niveles).

A estos √≠ndices se pueden a√Īadir aquellos desarrollos locales (nacionales, auton√≥micos, de una universidad o de una asociaci√≥n cient√≠fica) que se hayan creado con un fin espec√≠fico. Por ejemplo, las universidades australianas han pactado un indice que les sirve de referencia; las universidades catalanas usan MIAR como referencia; la universidad de Cambridge tiene  un listado agrupado en 4 niveles (como hace el DICE) que indica cu√°les son las revistas de m√°s a menos prestigio; o, por poner un √ļltimo ejemplo,  la UPV tiene una clasificaci√≥n de revistas en 4 niveles (ahora est√°n modific√°ndolo para que sean 6), creada por la comisi√≥n del Valoraci√≥n de la Actividad Investigadora de la UPV (que entra dentro del programa DOCENTIA, integra todos los campos cient√≠ficos en la que la UPV se mueve y lo hace con el esp√≠ritu de que sea JUSTA la comparaci√≥n inter-disciplinas. Adem√°s,  tiene un sistema de decisi√≥n auditado, sensato y establecido durante a√Īos). Por supuesto, ninguno de estos ejemplos es perfecto (no s√≥lo porque es dif√≠cil tener claro el criterio que hace que una revisa cient√≠fica sea de calidad o no) pero representan soluciones de compromiso alcanzadas a trav√©s de un consenso y que permiten tener un sistema m√°s ajustado y acorde a las necesidades concretas de una instituci√≥n.

Personalmente creo que, adem√°s de JCR y Scimago JCR, hay algunos otros indices solventes (Journal Scholar Metrics , google citations, DICE, MIAR, ICV de Copernicus…). Quiz√°s, los m√°s claros para el campo de la Organizaci√≥n de Empresas en Espa√Īa ser√≠an:

  • DICE-que surge de un convenido de CSIC con ANECA y la ANECA usa esta base de datos como referencia de calidad-
  • Journal Scholar Metrics (en el fondo se alimenta de datos de google scholar citations, pero lo mejora incorporando indicadores bibliom√©tricos m√°s potentes y categorizaciones).

Para finalizar, quer√≠a expresar una preocupaci√≥n que me ha empezado a rondar por la cabeza. Me temo que pronto se disparar√° el negocio de crear indexadores. Hasta ahora, los √≠ndices de revistas que se valoran en Espa√Īa est√°n en manos de grandes grupos editoriales multinacionales (Thompson, Elsevier y quiz√° Google se puede incluir en este paquete). Nos  hemos fiado de sus “rankings” porque son unas empresas monstruo que han intentado (y casi conseguido) tener el monopolio de este servicio. Pero, en el fondo, son entidades que velan por sus propios intereses y la ciencia es una escusa para hacer su negocio (que, en algunos casos, no es demasiado transparente). Tambi√©n hay √≠ndices que  han sido desarrollados por colectivos cient√≠ficos independientes apoyados con fondos p√ļblicos nacionales aunque, parad√≥gicamente, no son considerados por las propias instituciones que los financian, que prefieren dar prioridad a los listados de JCR o ScimagoJCR (tambi√©n es cierto que Espa√Īa est√° financiando el desarrollo de JCR y scimagoJCR a trav√©s de la suscripci√≥n de la FECYT de SCOPUS y WEBofScience para todas las universidades p√ļblicas espa√Īolas).

En este contexto no resulta imposible imaginar (y esto es lo que me preocupa) que los mismos estafadores que inventan los predatory journals y los predatory meeting, ahora extiendan  su fraude orient√°ndolo a los predatory indexes (porque seguro que hay un negocio en ordenar revistas y habr√° gente est√° dispuesta a pagar una fortuna para que sus revistas est√©n en la parte TOP de alg√ļn indice -independientemente de las garant√≠as cient√≠ficas del indice-) y ese es un peligro al que tendremos que enfrentarnos en el futuro.

2016/11/23
  Comentarios
|   Etiquetas: |  

Publicada By  Juan Marin - Ciencia, Investigaci√≥n    

La V edici√≥n de Workshop OMTech – Universidad de Navarra no s√≥lo ha cumplido, sino que tambi√©n ha superado mis expectativas. He escuchado cosas muy interesantes y me vuelvo con nuevas ideas, algunas cosas para probar en mis asignaturas, inquietudes de investigaci√≥n, varias referencias interesantes que ya estoy leyendo y, sobre todo, estoy a la espera de los full papers” que pueden aportar informaci√≥n relevante para el avance de la investigaci√≥n y pr√°ctica sobre docencia universitaria en direcci√≥n de operaciones.

2014/04/05
  Comentarios
|   Etiquetas: ,  ,  ,  ,  |  

Publicada By  Juan Marin - Ciencia, Investigaci√≥n    

En primer lugar quiero remarcar que me parece insensato valorar la calidad de la producci√≥n cient√≠fica de un investigador utilizando el factor de impacto como instrumento de medida. El factor de impacto es, con todas sus limitaciones, un indicador para medir el impacto de las revistas. Para medir el impacto de las aportaciones personales deber√≠an usarse otros √≠ndices, no exentos de problemas, pero mucho m√°s adecuados que el factor de impacto. Por ejemplo, el √≠ndice h. Os recomiendo leer Quind√≥s (2009)¬†Confundiendo al confuso: reflexiones sobre el factor de impacto, el √≠ndice h(irsch), el valor Q y otros cofactores que influyen en la felicidad del investigador como ejemplo de los m√ļltiples art√≠culos y reflexiones en esta l√≠nea. Tambi√©n pod√©is leer San Francisco Declaration on Research Assessment DORA y China‚Äôs publication bazaar.

Tanto si se mide el impacto del investigador con √≠ndice h o como con el factor de impacto de las revista en las que publican, desde hace tiempo me vengo preguntando por qu√©¬† SCImago Journal & Country Rank sigue siendo un listado de “segunda fila” y las comisiones evaluadores se empecinan en dar m√°s valor a los datos proporcionados¬† en el Journal Citation Report (JCR) que en SCImago Journal & Country Rank. Sin duda ambos calculan el √≠ndice h de la misma forma (pero incluyendo s√≥lo las revistas de la base de datos de Scopus o de la de web Of Knowledge, lo que es siempre incompleto). Aparentemente ambos usan m√©todos similares para calcular sus factores de impacto y son igual de robustos y serios. Aunque SCImago usa una m√©trica diferente para hacer el ranking de revistas. M√©trica que, curiosamente, han desarrollado unos colegas de universidades espa√Īolas (Granada, Estremadira, Carlos III y Alcal√° de Henares) y el Consejo Superior de Investigaciones Cient√≠ficas (CSIC) .

Por otra parte, el proceso de admisi√≥n de revistas parece m√°s claro y transparente en Scimago/Scopus que en JCR/WoK-Thompson. Ademas, en Scopus¬† parece haber una sensibilidad especial hacia las revistas europeas. Es decir, hay m√°s presencia de revistas europeas que en WoK-Thompson. Si a eso a√Īadimos que las revistas publicadas en Europa, de management y otras ciencias donde el aspecto cultural sea importante,¬† tienen m√°s tendencia a publicar investigaciones realizadas en el contexto europeo; lo l√≥gico ser√≠a pensar que, en los organismos de evaluaci√≥n espa√Īoles, ambos listados deber√≠an tener el mismo peso o, en todo caso, tener m√°s peso SCImago Journal & Country Rank que Journal Citation Report (JCR). Aunque solo sea porque Scimago (que es reconocido mundialmente) lo han parido compatriotas nuestros. Me resulta tan extra√Īo que los mismos espa√Īoles despreciemos lo que producimos mientras que fuera lo consideran un buen producto…. Es una forma rara de promocionar la marca Espa√Īa.

Aunque poco a poco los Boletines Oficiales van incorporando a ambos listados como referente de la calidad de las revistas, en la práctica se da un peso mayor a las revisas de JCR que a las de SCImago. Parece que es habitual que se considere equivalente ser un Q1 (primer cuartil) en SCImago con ser un Q2 o Q3  en JCR.

Hasta hoy no ten√≠a ning√ļn argumento para este ¬Ņsinsentido? Pero esta ma√Īana me han comentado que en algunas √°reas (como matem√°ticas), la politica de SCImago de clasificaci√≥n de revistas puede generar una distorsi√≥n en los rankings. En SCImago una revista puede pertenecer a varias categor√≠as y en cada una de ellas recibe un ranking (Q1 a Q4) comparando su factor de impacto con las otras revistas de la categor√≠a. Si alguna categor√≠a acaba siendo muy heterog√©nea (incluye revistas muy dispares con pol√≠ticas de citaci√≥n diferentes) puede distorsionar el ranking de esa categor√≠a. En JCR, aunque una revista pueda esta clasificada en varias categor√≠as, s√≥lo se estable su ranking (T1 a T3) en la categor√≠a principal. Y, parece ser que en determinadas √°reas las categor√≠as principales de JCR son m√°s homog√©neas y generan unos rankings m√°s claros o, al menos, m√°s parecidos a los que siempre se hab√≠an tenido.

No se si este asunto de la heterogeneidad de las categor√≠as afecta a todas las √°reas o s√≥lo unas pocas. En especial, me gustar√≠a saber si en las √°reas de Business, Management and Accounting (miscellaneous) , Education , Decision Sciences (miscellaneous)¬† , Industrial and Manufacturing Engineering, Strategy and Management , Management of Technology and Innovation, Organizational Behavior and Human Resource Management ¬† los rankings pueden verse afectados por errores de clasificaci√≥n de las revistas o si “son todas las que est√°n”, porque en el segundo caso no habr√≠a ning√ļn motivo para seguir discriminando a¬†SCImago Journal & Country Rank como se est√° haciendo en la actualidad .

PD: parece haber cierta evidencia que en áreas como márketing los listados ScimagoJCR y JCR generan unos rankings muy similares (correlación de 0.81) (ver Richard et al, 2012)

2014/01/03
  Comentarios
|   Etiquetas: |  

Publicada By  Juan Marin - Ciencia, Investigaci√≥n    

Acabo de firmar mi adherencia a la San Francisco Declaration on Research Assessment DORA- http://am.ascb.org/dora/

Por ello como investigador, me comprometo a:

1. Do not use journal-based metrics, such as Journal Impact Factors, as a
surrogate measure of the quality of individual research articles, to assess an
individual scientist’s contributions, or in hiring, promotion, or funding decisions.

15. When involved in committees making decisions about funding, hiring, tenure, or
promotion, make assessments based on scientific content rather than publication
metrics.
16. Wherever appropriate, cite primary literature in which observations are first
reported rather than reviews in order to give credit where credit is due.
17. Use a range of article metrics and indicators on personal/supporting statements,
as evidence of the impact of individual published articles and other research
outputs.
18. Challenge research assessment practices that rely inappropriately on Journal
Impact Factors and promote and teach best practice that focuses on the value
and influence of specific research outputs.

Y,  como editor de la revista WPOM-Working Papers on Operations Management me comprometo a:

6. Greatly reduce emphasis on the journal impact factor as a promotional tool,
ideally by ceasing to promote the impact factor or by presenting the metric in the
context of a variety of journal-based metrics (e.g., 5-year impact factor,
EigenFactor [8], SCImago [9], h-index, editorial and publication times, etc.) that
provide a richer view of journal performance.
7. Make available a range of article-level metrics to encourage a shift toward
assessment based on the scientific content of an article rather than publication
metrics of the journal in which it was published.
8. Encourage responsible authorship practices and the provision of information
about the specific contributions of each author.
9. Whether a journal is open-access or subscription-based, remove all reuse
limitations on reference lists in research articles and make them available under
the Creative Commons Public Domain Dedication [10].
10. Remove or reduce the constraints on the number of references in research
articles, and, where appropriate, mandate the citation of primary literature in
favor of reviews in order to give credit to the group(s) who first reported a finding

2014/01/03
  Comentarios
|   Etiquetas: ,  |  

Publicada By  Juan Marin - Ciencia, Investigaci√≥n    

El miércoles 11 de Septiembre de 2013 (de 10:30 a 12:20) daré una Charla en el marco de la Escuela Latino-Iberoamericana de Verano en Investigación Operativa ELAVIO 2013 (http://elavio2013.blogs.upv.es/programa/)

El titulo y contenido de la charla lo pod√©is ver a continuaci√≥n. Puesto que me gustar√≠a personalizar los contenidos para ajustarlos a los intereses de los asistentes, os invito a a√Īadir vuestras preguntas sobre el tema como comentarios a esta entrada. De este modo, podre incorporar vuestras inquietudes a los contenidos que expondr√©.

Transparencias de la charla http://hdl.handle.net/10251/32009

Scientific publication for dummies. A critical vision of indexed citations.

JUAN A. MARIN-GARC√ćA

“Dec√≠a Bernardo de Chartres que somos como enanos a los hombros de gigantes. Podemos ver m√°s, y m√°s lejos que ellos, no por alguna distinci√≥n f√≠sica nuestra, sino porque somos levantados por su gran altura”. Si queremos hacer avanzar la ciencia, necesitamos comunicar y debatir nuestros resultados para ir construyendo, entre todos, el conocimiento cient√≠fico. En esta charla me gustar√≠a compartir con vosotros como entiendo el sistema de publicaciones cient√≠ficas, d√≥nde localizar revistas afines a vuestros temas y c√≥mo seleccionarlas (en base a su comit√© cient√≠fico, la calidad de sus revisiones o el impacto en vuestro curriculum a partir de diversos indices de impacto), tambi√©n me gustar√≠a personalizar la charla para dar respuesta a vuestras dudas concretas sobre el proceso editorial o recomendaciones que puedo haceros desde mi rol como editor de WPOM o revisor para diferentes revistas de impacto.

2013/07/18
  4 Comments
|   Etiquetas: ,  ,  ,  |  

Publicada By  Juan Marin - Ciencia, Uncategorized    

Hace unos días participé en una sesión de clausura del curso de formación para profesores de mi universidad (Título Propio de Especialista en Pedagogía Universitaria/Programa de Acogida Universitario (PAU)) y estuvimos hablando sobre publicar en investigación docente.

Quiz√°s deber√≠amos empezar respondiendo a una pregunta m√°s general ¬Ņpor qu√© publicar los resultados de investigaci√≥n?

En lugar de dar una respuesta a esta pregunta, me gustaría que dedicaras 2-3 minutos a poner todas las posibles razones por las que sería conveniente publicar (luego, si quieres, puede incluso ordenarlas de mayor a menor importancia para ti):

En segundo lugar,¬† deber√≠amos responder a esta pregunta ¬Ņqu√© es la investigaci√≥n docente? . Seguramente habr√° muchas respuestas diferentes, yo voy a daros la m√≠a:

La investigaci√≥n docente es INVESTIGACI√ďN. Por lo tanto, usa el mismo protocolo que cualquier otro tipo de investigaci√≥n sea cu√°l sea el fen√≥meno que se investigue: hay que definir una pregunta de investigaci√≥n y justificar que es pertinente e importante, que responderla aporta una contribuci√≥n a acad√©micos y profesionales; hay que recopilar el saber previo y resumirlo; hay que elegir los m√©todos m√°s adecuados para la pregunta formulada y los objetivos concretos de la investigaci√≥n; hay que recoger “datos” y analizarlos y discutirlos para acabar sacando unas conclusiones.

Lo √ļnico que la diferencia de otras investigaciones es que su pegunta de investigaci√≥n est√° relacionada con la docencia o el aprendizaje. Por lo tanto,¬† es el objeto y no el “m√©todo” lo que define la investigaci√≥n docente. Por otra parte, la investigaci√≥n docente se puede concretar para dar respuesta a cuestiones relacionadas con el aprendizaje o la docencia de diferentes disciplinas, por lo que su contribuci√≥n es importante (y seguramente esencial) para los investigadores de esas √°reas, sean √°reas de Qu√≠mica, Biolog√≠a, Derecho, Organizaci√≥n de Empresas, Ingenier√≠a o la que sea). De hecho, las m√°s prestigiosas asociaciones cient√≠ficas tienen divisiones especializadas en investigar c√≥mo se aprender la disciplina. Por otra parte, no debemos olvidar que, en el contexto cient√≠fico espa√Īol, una parte importante de la investigaci√≥n la realizan personas que son, al mismo tiempo, investigadores y docentes. Por ello, la investigaci√≥n docente nos ayuda a dar respuesta a problemas con los que nos enfrentamos todos los d√≠as para logar ser unos profesionales y unas instituciones m√°s eficientes.

Otra pregunta que quiero contestar es ¬Ņpor qu√© publicar mis investigaciones docentes? ¬Ņno ser√° esa una tarea s√≥lo de pedagogos? En mi opini√≥n, cualquier persona que es responsable de que otros aprendan (da lo mismo que los que aprendan sean doctorandos, alumnos de universidad o personal t√©cnico de las empresas), deber√≠a investigar sobre la mejor forma de fomentar aprendizaje y publicar sus resultados.

Para mi, publicar (cualquier investigación, docente o no) es importante porque:

  • Me ayuda a ser m√°s sistem√°tico (resumiendo el saber previo, recogiendo e interpretando los datos) y ser m√°s riguroso, de modo que acabo tomando mejores decisiones docentes y soy mejor profesional de la docencia.
  • Me permite convertir en “urgente” cosas que son importantes (si no me fijo plazos y objetivos de publicaci√≥n, las cosas se me van quedando para “cuando tenga tiempo” y eso no ocurre jam√°s y no mejoro mi capacitaci√≥n como profesional al servicio de la Universidad espa√Īola).
  • Me ahorra tiempo a mi y ahorra tiempo a otros, porque intercambiamos resultados y evitamos tropezar en los mismos errores o podemos aprovechar mejor los aciertos de otras personas.
  • Me permite debatir mis conclusiones y contrastar si son tan ciertas como supon√≠a. Tambi√©n me permite generalizar (o no)¬† los resultados al compararlos con las publicaciones similares en otros contextos.
  • Y deber√≠a servir para mejorar mi curriculum como investigador. Por un lado, me ayuda a depurar m√©todos y a conocer nuevas t√©cnicas que enriquecen mi capacidad para abordar problemas cada vez m√°s complejos en mi √°rea “natural” de investigaci√≥n, que es la Organizaci√≥n de Empresas. Gracias a las exigencias de la investigaci√≥n docente tengo que aprender t√©cnicas que luego aplico en investigaciones de otros campos, creando una fertilizaci√≥n cruzada muy interesante. Por otro lado, salvo que alguien se empe√Īe en ponerle “orejeras” a la Ciencia, la publicaci√≥n de resultados de investigaci√≥n en revistas de prestigio, sea del √°rea que sea, es un m√©rito indiscutible para un investigador. De hecho, cuanto m√°s diferentes son las “conversaciones cient√≠ficas” en las que se participa, m√°s m√©rito se deber√≠a considerar pues obliga a dominar marcos te√≥ricos, m√©todos y enfoques diferentes. Esta polivalencia y versatilidad es un recurso complejo, escaso y valioso; las personas que lo poseen deber√≠an ser premiados (y no penalizados) por ello.

En el fondo, los motivos para publicar e revistas cient√≠ficas mis resultados de investigaci√≥n docente, no son diferentes de los motivos que me impulsan a publicar mi investigaci√≥n en “Organizaci√≥n de Empresas”, porque tal como comentaba en la segunda pregunta de esta entrada, el proceso para hacer investigaci√≥n es el mismo e igual de riguroso, lo que cambia s√≥lo es el objeto de las preguntas que se intentan responder.

Por √ļltimo me quedar√≠a una pregunta por tratar ¬Ņd√≥nde publicar la investigaci√≥n docente?

Los congresos son una buena forma de empezar a elaborar el “borrador” de la comunicaci√≥n, pero deber√≠amos apuntar a publicar en revistas acad√©micas registradas en bases de datos de b√ļsqueda (Scopus, EBSCO, ABI y Web Of knowledge). El motivo principal es que las actas de congreso no suelen estar accesibles ni indexadas, de modo que nuestra investigaci√≥n no beneficiar√° apenas a nadie, porque, a√ļn encontrando el t√≠tulo y resumen, casi nunca podr√°n acceder a nuestro texto completo, salvo que hayan asistido al congreso (y guarden las copias de las actas). Adem√°s con el tema de congresos empieza a haber un movimiento de crear cutre-congresos que no aportan nada cient√≠ficamente a los participantes. Para detectar estos congreso-fiascos, os recomendar√≠a que mirarais la asociaci√≥n cient√≠fica y el comit√© cient√≠fico que organiza el congreso (si no hay una asociaci√≥n cient√≠fica reconocida detr√°s del congreso, o en su defecto, un comit√© plagado de expertos reconocidos, yo no me apuntar√≠a).

Sobre las revistas, lo principal es el comit√© editorial. Si las¬† personas que est√°n detr√°s de la revista son reconocidos expertos en la disciplina que quieres publicar, es un buen indicador de la seriedad. Os recomendar√≠a evitar mandar vuestros art√≠culos a revistas donde el editor es un profesional “no cient√≠fico” y que no pertenece a una instituci√≥n universitaria o cient√≠fica (sobre todo, si os piden 400-600 euros por publicaros los art√≠culos. Que hay mucha editorial no cient√≠fica que se dedica a intentar publicar ciencia como si se tratara de “libros de bolsillo”. Para m√≠ eso es dar gato por libre. ¬† Adicionalmente, cumplir criterios latindex o similares o estar en alguno de los buscadores habituales (Scopus, EBSCO, ABI y Web Of knowledge), puede ser otro √≠ndice de calidad pero nunca eliminar√≠a el primer filtro de qui√©n forma parte del comit√© editorial y que peso cient√≠fico tienen esas personas.

Asumiendo que opt√°is por una revista cient√≠fica de verdad (no las falso-cient√≠ficas que se anuncian por mail “spameando” con las listas de direcciones que capturan de las actas de congresos u otros m√©todos de dudosa legitimidad). Las opciones creo que se resumen en tres categor√≠as:

  1. Revistas de vuestra √°rea de conocimiento que admiten (a veces a rega√Īadientes) art√≠culos de investigaci√≥n docente. Si lo pone como l√≠nea de “Focus and Scope”, tendr√©is alguna posibilidad. Si no, ser√° casi una tarea imposible. Ejemplos de revistas de esta categor√≠a que NO promociona la investigaci√≥n docente en sus l√≠neas, pero que a veces publica algo: http://www.journals.elsevier.com/journal-of-operations-management/ o Cuadernos de Econom√≠a y Direcci√≥n de la Empresa y este es un ejemplo (hay poqu√≠simos)¬† de una que s√≠ lo promociona entre sus l√≠neas http://www.jiem.org/index.php/jiem/about/editorialPolicies#focusAndScope
  2. Revistas de vuestra área que se dediquen a la investigación docente. Por ejemplo, porque son el órgano de difusión de una sección de la asociación científica.  Ejemplos de estas revistas:Journal of Marketing Education, Academy of Management Learning & Education, INFORMS Transactions on Education , WSEAS Transactions on Advances in Engineering Education, Journal of Chemical Education, Journal of Engineering Education
  3. Revistas del √°rea de educaci√≥n o pedagog√≠a (requerir√°n de vosotros un mayor dominio del marco te√≥rico, m√©todos y “normas de conversaci√≥n” habituales en la pedagog√≠a). Ejemplos de esta categor√≠a de revistas: Higher Education, Innovative Higher Education, Assessment and Evaluation in Higher Education, Revista de Investigaci√≥n Educativa (RIE), RELIEVE, Revista espa√Īola de Pedagog√≠a, Revista de Educaci√≥n

1 Star2 Stars (No Ratings Yet)
Cargando…

2013/06/01
  Comentarios
|   Etiquetas: ,  ,  ,  |  

Publicada By  Juan Marin - Ciencia, Uncategorized    

Un a√Īo y tres meses despu√©s de que formulara la pregunta original¬† y tras varios reales Decretos, unos cu√°ntos borradores de Ley y varias¬† normas internas de mi universidad publicadas, tengo una respuesta m√°s concreta a la pregunta ¬ŅCu√°ntas horas de trabajo de profesor deber√≠a representar 1 cr√©dito ECTS?

Con todos los datos recogidos, hago un nuevo supuesto:

Un PDI (personal docente e investigador), a tiempo completo en la UPV, tiene que impartir 34 crd de docencia (ECTS)¬† por contrato. Pero si investigas (sexenio vivo y otros indices de actividad investigadora) se reconoce esa actividad como descarga docente… de forma similar a como se hace en gesti√≥n. Si investigas mucho puedes llegar a tener un m√°ximo de 16 cr√©ditos de encargo docente (es decir un 40-50% del tiempo es investigaci√≥n y el resto docencia -si haces gesti√≥n, se descarga de docencia tambi√©n). Estas cifras coinciden bastante con el primer supuesto que formul√© en su d√≠a. No iba tan desencaminado. Lo que cambia ahora es el m√≥dulo para calcular la equivaencia de ECTS y horas.

Las 1.725 horas al a√Īo (dedicaci√≥n a tiempo completo) equivalen a 34 crd. Por lo tanto 1 ECTS equivale a 50.7 horas de trabajo del profesor/investigador. Por ejemplo, una asignatura donde se impartan 5 cr√©ditos de “POD”, puede consumir 250 horas EN TOTAL (planificaci√≥n, preparar materiales, impartir, evaluar, reuniones de coordinaci√≥n, poner actas, revisiones, etc). Es decir, hay tiempo para hacer bien las cosas invirtiendo el tiempo necesario para desarrollar materiales,¬† atender a los alumnos, evaluarles formativamente etc.

Quiz√°s ahora la pregunta sea, ¬Ņcu√°nta investigaci√≥n de calidad se puede hacer dedicando 811 horas de trabajo al a√Īo a investigar? Por concretar esa pregunta con los “indices de moda” (limitados, pero sencillos de calcular), ¬Ņcu√°ntos JCRs de cuartil 1 √≥ 2 se pueden hacer al a√Īo en ese tiempo? Personalmente, no creo que sean m√°s de 1 al a√Īo -o como el chiste, uno o ninguno-.

Habr√≠a que considerarlo para que las comisiones correspondientes de sexenio y acreditaci√≥n “no se suban a la parra” y fuercen a los docentes (porque somos docentes en las Universidades Espa√Īolas) a abandonar parte de sus obligaciones para cumplir con unos criterios que, de otra manera, son¬† imposibles de cumplir.

1 Star2 Stars (No Ratings Yet)
Cargando…

2013/06/01
  2 Comments
|   Etiquetas: |  

Publicada By  Juan Marin - Ciencia, Uncategorized    

“Hace muchos a√Īos viv√≠a un catedr√°tico de universidad espa√Īol que era comedido en todo excepto en una cosa: se preocupaba mucho por la excelencia en la investigaci√≥n. Gracias a sus m√©ritos, perseverancia y su prodigiosa inteligencia consigui√≥ ser nombrado ministro de investigaci√≥n. Un d√≠a escuch√≥ a dos investigadores extranjeros, que estaban haciendo una estancia en su universidad,¬† decir que hab√≠an construido el mejor baremo para evaluar la calidad de investigaci√≥n que se pudiera imaginar. Eran los hermanos Guido y Luigi Farabutto, que acumulaban m√°s de 100 trabajos publicados en las revistas de primer cuartil del famoso JCR (y su √≠ndice h era superior a 60). Este baremo, a√Īadieron, ten√≠a la especial capacidad de dar cero puntos a cualquier est√ļpido o incapaz para su cargo en una instituci√≥n universitaria. Por supuesto, no hab√≠a baremo alguno sino que los p√≠caros produc√≠an n√ļmeros arbitrarios, eso s√≠, si alguien introduc√≠a en la aplicaci√≥n alguna publicaci√≥n cuya pregunta de investigaci√≥n estuviera relacionada con la docencia,se le asignaba una elevada puntuaci√≥n negativa a ese trabajo.

Sinti√©ndose algo nervioso acerca de si √©l mismo ser√≠a capaz de salir bien parado o no con el baremo, el ministro de investigaci√≥n envi√≥ primero a dos de sus hombres de confianza a ser sometidos a la evaluaci√≥n. Evidentemente, ninguno de los dos introdujo m√©ritos relacionados con investigaci√≥n docente (pues no los ten√≠an) y, puesto que la aplicaci√≥n les otorg√≥ unos n√ļmeros altos comenzaron a alabarla. Toda la comunidad acad√©mica empez√≥ a o√≠r¬† hablar del fabuloso baremo y estaba deseando comprobar su puntuaci√≥n, pero sobre todo, si ten√≠an m√°s puntos que sus¬† vecinos. Los investigadores m√°s prestigiosos de la disciplina sacaron elevadas puntuaciones, en parte por azar y en parte porque ninguno de ellos hab√≠a publicado jam√°s art√≠culos de investigaci√≥n docente. Pronto la aplicaci√≥n fue ganando popularidad.

Los hermanos Farabutto ayudaron al ministro a parametrizar la aplicaci√≥n inform√°tica y el propio ministro obtuvo la mayor puntuaci√≥n de Espa√Īa (tras seguir los consejos de los hermanos Farabutto y no introducir unos cu√°ntos art√≠culos sobre investigaci√≥n docente que el catedr√°tico hab√≠a publicado en revistas como Academy of Management Learning & Education, Journal of Management Education, Intangible Capital, Journal of Engineering Education, Cuadernos de Econom√≠a y Direcci√≥n de Empresas, entre otras).

Toda la comunidad cient√≠fica alab√≥ enf√°ticamente el baremo, y empezaron a esconder sus investigaciones docentes, temerosos de que sus vecinos se dieran cuenta y les obligaran a introducirlas en la aplicaci√≥n. As√≠ pasaron muchos, mucho a√Īos.

De vez en cuando alg√ļn est√ļpido reclamaba ¬ę¬°Pero si la investigaci√≥n docente es investigaci√≥n!‚Ķ Sin embargo, sus palabras se perd√≠an entre risitas despectivas por parte de una mayor√≠a autocomplacida con sus elevados √≠ndices de prestigio acad√©mico (infinitamente mayores que los de los osados reclamantes)…”

Como ya os habr√©is dado cuenta,¬† esta historia¬† es una adaptaci√≥n¬†(http://es.wikipedia.org/wiki/El_traje_nuevo_del_emperador#cite_note-4) de lo que¬† escribi√≥ Hans Christian Andersen (1837)‚Ķ Aunque resulta que, en ocasiones,¬†las maravillas extranjeras parten de ideas espa√Īolas . Parece ser que Andersen adapt√≥, sin citar (ahora dir√≠amos, plagi√≥), la historia XXXII recogida en el El conde Lucanor ( infante Don Juan Manuel, 1330- 1335).

Por supuesto, en mi texto, se podr√≠a sustituir el concepto “investigaci√≥n docente” por “investigaci√≥n con metodolog√≠a cualitativa” o por “Investigaci√≥n haciendo replicaci√≥n de estudios” o incluso “publicar en m√°s campos de los que yo [evaluador] soy capaz de dominar” o “investigaci√≥n en temas que, unas pocas personas y contra toda l√≥gica, deciden que no son propias del √°rea, sin que haya ning√ļn documento que manifieste, expl√≠citamente, d√≥nde est√°n las fronteras consensuadas por la comunidad cient√≠fica del √°rea (en el caso de que, de verdad, sea posible acotar fronteras sin matar la investigaci√≥n transversal y multidisciplinar) ” y seguir√≠a teniendo la misma vigencia.

No s√© c√≥mo acabar√° este cuento. En la ficci√≥n se acaba descubriendo el “pastel” y se rectifica y se aprende la lecci√≥n. Pero es bien sabido que la realidad muchas veces supera a la ficci√≥n.

2013/05/23
  Comentarios
|   Etiquetas: ,  |  

Publicada By  Juan Marin - Ciencia, Docencia, Investigaci√≥n    

He asistido un a√Īo m√°s a la reuni√≥n de trabajo de la secci√≥n de Direcci√≥n de Operaciones y Tecnolog√≠a de la Asociaci√≥n ACEDE (Sevilla, 29 de abril 2013 https://twitter.com/OMTech2013; http://congreso.us.es/omtech2013/). La reuni√≥n me ha resultado muy interesante y fruto de lo o√≠do y visto, me traigo unas reflexiones, preguntas¬† o cuestiones que intentar√© ir digiriendo en el futuro:

  1. Evaluación de aprendizajes en nuestras asignaturas de grado. La explosión de Mini actividades puntuadas y sumadas quizás hace que se consigan aprobados o notas sin que se haya aprendido lo suficiente.
    1. ¬Ņcomprobamos¬† o las dise√Īamos para que sean ESTIMADORES v√°lidos y fiables de los objetivos de aprendizaje superado por el alumno?
    2. ¬ŅLas mini-actividades son necesarias para que se aprendan cosas que permitan¬† sacar buena nota en el final? ¬Ņsuper√°ndolas implica que aprenden cosas necesarias para superar los objetivos de aprendizaje?
  2. Formulación de objetivos de aprendizaje (enlazado también con la presentación de Maria Teresa Ortega). Se me ocurre que hay dos forma de formularlos:
    1. En base a lo que medimos. Verbalizar lo que estamos midiendo realmente y lo conviertimos en objetivo de aprendizaje (ejem. Leer y recordar unos capítulos de un libro)
    2. Describir las componentes de las competencias que queremos trabajar en la asignatura: ser√≠a como constructos formativos de un segundo orden ‚Äďla competencia- y las mini-actividades o preguntas del examen ser√≠an Estimadores ‚Äďreflectivos o formativos- de ese constructo de objetivo de aprendizaje. Ejemplo: Establecer, redactar y comunicar objetivos para cada una de las secciones del departamento. Esta forma de trabajar permite aplicar t√©cnicas multivariantes para comprobar el ajuste de los datos al “modelo te√≥rico de evaluaci√≥n que deseamos”.
  3. Sobre lo que comentaba Pedro de resultados contraintuitivos cuando se introducen innovaciones docentes y notas obtenidas por los alumnos.
    1. Creo que no es la metodolog√≠a docente¬† lo que genera resultados de aprendizaje (y por lo tanto notas diferentes). Son las horas de trabajo ACTIVO de los alumnos en la asignatura lo que genera el aprendizaje. La pregunta es si diferentes metodolog√≠as fomentan m√°s horas de trabajo activo en los alumnos (¬Ņa todos o hay metodolog√≠as que son m√°s reactivas para determinados alumnos?). Es decir, necesitamos un mediador entre “metodolog√≠a” y “resultados”, de lo contrario podemos encontrar datos cofnusos (que al cambiar una metodolog√≠a “tradicional” por una que se supone que es “una buena pr√°ctica”, los alumnos no sacan m√°s notas). Bueno, adem√°s del mediador de horas de trabajo activo, necesitamos estar seguros de que el modo en que evaluamos es adecuado (y no est√° sesgado y deja de lado los verdaderos objetivos de aprendizaje de la asignatura).
  4. Hay muchas personas haciendo innovaci√≥n docente (solo en la reuni√≥n pudimos ver m√°s de 50 experiencias). Pero no lo compartimos de la manera adecuada para que sea √ļtil. No publicamos nada de esto y as√≠ es dif√≠cil que se haga avanzar la “ciencia”. Pero debemos publicar bien. informar con el suficiente detalle nuestros¬† experimentos/experiencias docentes para que:
    1. cualquier profesor pueda replicar nuestro experimento, cuasi-experimento o experiencia (eso implica compartir o enlazar los materiales y protocolos usados en aula.
    2. haya informaci√≥n suficiente para poder hacer un meta-analisis en el futuro (que resuma e integre los aportes de cada experiencia). esto incluye una buena descripci√≥n de las poblaciones y grupos, as√≠ como de los “tratamientos” y efectos de los mismos.
    3. Si no se os ocurre ninguna revista que pueda estar interesada en publicar este tipo de trabajos, yo os adelanta que en WPOM somos receptivos a esta investigación necesaria. Pero sospecho que hay otras muchas revistas que serían receptivas: Intangible Capital, Journal of Industrial Engineering and Management y EDUCADE
  5. El reto de siempre de compartir materiales entre docentes. ¬ŅPodemos crear un canal youtube para compartir los buenos v√≠deos localizados y que no tengamos que gastar tanto tiempo localizando materiales?¬† En el fondo se puede extender a casos o articulos de peri√≥dicos (como comentaba Jose Antonio Alfaro o Juan Jos√© Tar√≠). Lo importante es poder hacer unos buenos tags,‚Ķ. Quiz√°s por eso lo mejor usar Diigo o una buena herramienta de marcadores sociales
    1. Igual lo sencillo es colgar cosas en servidores (cada uno el que prefiera: youtube, google drive, servidores propios o blogs propios) y usar marcadores sociales ‚Äďp√ļblicos o cerrados para el grupo OMTECH, lo que queramos-
    2. No necesitamos un servidor propio de ACEDE.. nos basta con marcadores y una forma de gestionar acceso o hacerlo publico
  6. Repensar lo de los badges (http://www.openbadges.org/) y gamificaci√≥n sin caer en ‚Äúedu-tainement‚ÄĚ comentado por Elcio Mendo√ßa
  7. Relaci√≥n de la ponencia de Dolores Quiruga con mi propuesta de ‚Äúaprendizaje servicio‚ÄĚ la experiencia con la SVPAP
  8. ‚ÄúLo nuevo de Bolonia es poner al alumno en el centro de aprendizaje‚ÄĚ He de reconocer que me da un poco de tirria esta frase porque, para m√≠, desde 1994 el alumno era el centro de aprendizaje ;-).
1 Star2 Stars (No Ratings Yet)
Cargando…
2013/04/29
  2 Comments
|   Etiquetas: ,  ,  ,  |  

P√°gina siguiente »

Universidad Politécnica de Valencia