Oposición a cátedra, un proyecto ilusionante

Esta semana he empezado a preparar la documentación para una futura oposición a Cátedra de Organización de Empresas. Aun no hay fechas, pero tengo bastante trabajo por delante.

He decidido aprovechar este evento para hacer un ejercicio de reflexión que llevo madurando desde hace tiempo, pero que nunca había sido urgente concretarlo. Por lo tanto, no voy a preparar el «papeleo» de la oposición. Lo que voy a hacer es un mapa estratégico (Bryson et al, 2014) de mi papel como funcionario al servicio de la sociedad y, a partir de eso, desplegar un proyecto docente e investigador planteado con sentido práctico y aplicable.

Continuando la linea que inicié en anterior oposición (hace ahora 20 años), voy a distanciarme del formato de los proyectos que se presentan habitualmente. Voy a aplicar el mismo enfoque con el que abordo la elaboración de solicitudes para proyectos de investigación. Esos proyectos en los que invierto entre 200 y 300 horas en elaborarlos y luego nunca consigo financiación pública. Sin embargo, mi forma de plantearlos me permite luego desplegar de manera muy fácil la investigación (que acabo financiándome yo mismo, ya que nadie más cree en su utilidad). Al menos así, no desperdicio las horas de trabajo invertidas en la creación del documento.

No me atrae hacer proyectos de una forma que no les pueda ver una utilidad clara para mi. Me resisto a invertir una considerable cantidad de horas en generar un documento cuyo destino sea ir a la papelera tras la oposición. Quiero que su escritura me resulte interesante y apasionante. En mi caso, eso solo podrá lograrse si me ayuda a cuestionarme aspectos de mi profesión, me obliga a reflexionar críticamente, me permite descubrir cosas y que me catapulta a actuar enfocado en una dirección relevante.

De momento,  he empezado con la lectura de estos libros:

  • Bryson, J. M., Ackermann, F., & Eden, C. (2014). Visual strategy. Strategy mapping for public and nonprofit organizations. San Francisco: Jossey-Bass
  • Ramio, C. (2014). Manua para los atribulados profesores universitarios. Madrid: CATARATA
  • Evans, L. (2019). Catedráticos de universidad. De lideres académcios a académicos que lideran

Y he elaborado un primer borrador (aun en construcción) de mapa estratégico:

Borrador mapa estratégico 20210328

El próximo paso es integrar mis anotaciones de de Evans (2019) y Ramio (2014)

Visitas: 95

El público objetivo de la divulgación científica debería ser más amplio de lo que habitualmente pensamos

Mientras leía este articulo pensaba que acaban de identificar al publico objetivo de los manipuladores, populistas y anti-ciencia. El reto es como se puede trabajar con esas poblaciones desde la  Práctica Basada en Evidencia (evidence-based) para contrarrestar las campañas que están recibiendo y seguirán recibiendo desde otras fuentes.
Howley, P., Waqas, M., Moro, M., Delaney, L., & Heron, T. (2020). It’s Not All about the Economy Stupid! Immigration and Subjective Well-Being in England. Work, Employment and Society, 34(5), 919–936. https://doi.org/10.1177/0950017019866643«
 
Un resumen de la evidencia:
«much of the research that has been done in the UK suggests that immigration has had little, if any, negative impact on the labour market outcomes of natives and this finding is mirrored in much of the research outside the UK (Card, 2005; Dustmann et al., 2013; Lemos and Portes, 2013).»
…..
«the available evidence suggests that migrants are typically younger and healthier, and in turn more likely to be at work (hence less likely to access social services) than the native UK population. In effect, it is likely that they not only pay their own way, but also partly subsidise the costs of public services for others (Dustmann et al., 2010). «
 
Los mensajes en las redes
«In public discourse, immigration is also often associated with increased burdens on taxpayers through rising health care costs and demand for social services. «
«The effect of this influx of new migrants on the UK economy has been the subject of intense political debate, and was one of the dominant issues in the recent UK referendum on EU membership.»
 
Y el efecto que producen (qué población es más vulnerable a los mensajes que a la evidencia)
 
«Considering the population as a whole (main effects), we find using both a fixed-effects (following the same individuals over time) and instrumental variable specification (quasi-natural experiment) that net inflows of foreign-born individuals into local areas are associated with negative (albeit relatively small) subjective well-being impacts for natives. These negative impacts are much more notable, however, for certain groups, such as relatively older individuals (60+), the unemployed, those with below-average household incomes and finally those without any formal educational qualifications.»
 
#evidencebased

Visitas: 79

Publicado: Marin-Garcia, J. (2018). What are the research focuses regarding learning in the field of operations management in higher education? The case of Spain in 2017. Journal of Industrial Engineering and Management, 11(4), 607-616. doi:http://dx.doi.org/10.3926/jiem.2550

Publicado: Marin-Garcia, J. (2018). What are the research focuses regarding learning in the field of operations management in higher education? The case of Spain in 2017. Journal of Industrial Engineering and Management, 11(4), 607-616. doi:http://dx.doi.org/10.3926/jiem.2550

Purpose: What are the current research topics being studied by higher education professors in the area of operations management in Spain with regard to the learning of their students? Are the approaches that support these investigations adequate?

Design/methodology/approach: For the analysis, we have selected 25 publications in peer-reviewed scientific journals published by Spanish authors in 2017, and we have encoded them using Atlas.ti.

Findings: Most of the research centers on a very basic type of approach to learning, which reproduces the type of research typically conducted more than 40 years ago (type 1). For this reason, we propose an example of how to convert type 1 research questions into type 2 or 3 questions.

Originality/value: This paper collects and summarizes the main works on learning research carried out by members of ACEDEDOT and published in 2017, identifying themes, methods, levels of teacher conception and focus on the type of student learning. We intend to use this information to create a map of the current situation and propose possible suggestions to implement evidence-based instruction on operations management.

Keywords

scholarship, student learning, student engagement, higher education

Visitas: 21

Publicado: Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10) doi:10.1108/IJPDLM-06-2018-0233

Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10), null. doi:10.1108/IJPDLM-06-2018-0233
 
 
 
Purpose The purpose of this paper is to establish definitions and dimensions of Triple-A supply chain (SC) variables based on a literature review and to validate a Triple-A SC measurement model using a worldwide multiple informant sample. Design/methodology/approach Following a literature review, Triple-A SC variables (agility, alignment and adaptability) are conceptualized and a list of possible items is created for their measurement. An international 309 plant sample is used to validate the convergent and criterion validities of the composites proposed to measure Triple-A SC. Findings Contributions to the literature: clarification of Triple-A SC variable concepts; identification of key dimensions of Triple-A SC variables; development of a validated Triple-A SC measurement scale for future empirical research and industrial applications. Research limitations/implications A rigorously validated instrument is needed to measure Triple-A SC variables and enable researchers to credibly test theories regarding causal links between capabilities, practices and performance. Practical implications Proposal of a scale for use by managers of different functions to analyze Triple-A SC deployment in the company. Originality/value The only Triple-A SC scale used in the previous literature has serious limitations: scales were not taken from an extended literature review; data were collected from single respondents in a single country. This is the first validated Triple-A SC measurement model to overcome these limitations

Visitas: 15

Publicado: Losilla et al (2018) Three risk of bias tools lead to opposite conclusions in observational research synthesis

Nuevo artículo publicado que me ha permitido colaborar con estupendos investigadores del área de la salud para seguir avanzando en instrumentos que nos permitan hacer mejor ciencia y, sobre todo, informarla mejor. Algo que me interesa doblemente como editor de WPOM y de JIEM. Por otra parte, sufrir los estándares de publicación de una Q1 en el área de CC de la salud también es una experiencia interesante.

Visitas: 68

¿La evaluación por competencias es algo más que evaluar conocimientos, habilidades y/o actitudes?

De momento sólo planteo la pregunta porque no tengo una respuesta clara al respecto por eso está, de momento en «preguntas no resueltas» . Cuando tenga alguna respuesta modificaré esta entrada.

En las organizaciones cada vez se habla más de gestión del talento y eso, de alguna manera, implica gestionar las competencias de los trabajadores. Soy de los que opinan que lo que no se puede medir, difícilmente se puede gestionar. O, dicho de otro modo, dime cómo mides y te diré realmente qué estás gestionando. Por otra parte, las universidades publicas españolas están queriendo moverse a un modelo de evaluación de competencias. De momento sólo es algo que aparece en las memorias de verificación de títulos, donde las competencias tienen un papel prioritario. Sin embargo, no parece que los profesores «de a pie», los que están a cargo de las asignaturas que se imparten tengan muy claro cómo trabajar en este «nuevo» entorno y parece que se reproducen los sistemas o métodos tradicionales.

Por eso me parece relevante reflexionar sobre ¿Qué es la evaluación por competencias? Y, sobre todo, ¿cómo se realiza una adecuada evaluación por competencias?

Visitas: 21

Los artículos científicos publicados en revistas más populares, ¿son de mayor calidad?

Empiezo a encontrarme aportaciones que parecen indicar todo lo contrario; o, al menos, que la popularidad (indice de citas/impacto) no está asociada a la calidad (o no hay una relación causal excesivamente fuerte una vez controladas otras variables de confusión). Un  ejemplo https://docs.google.com/document/d/18uyYykwoy6EAyX39eDfuVwsuPrjokPEuB5MyLmrdi2U
 
Los próximos dos-tres años quiero abrir una linea de trabajo en este sentido centrada en RRHH y OM (pues creo que todas estas cosas se deben analizar  sub-área por sub-área. Pues de un área (o sub-areas) científica a otra  puede haber diferencias -y mucho más si pasamos de Sciencie a Social Science-. En cualquier caso hay que probar que no las haya.

 
 
El trabajo no será rápido pues hay que hacer dos o tres cosas primero.:
  1. Identificar las «revistas del área»
  2. Definir impacto (popularidad) y calidad científica del trabajo (son dos cosas distintas evaluadas por métricas distintas y por «personas» o agentes distintos en momentos distintos de la investigación).
  3. Ver el acuerdo (agreement) entre rankings de impacto diferentes
  4. Probar si los artículos en revistas TOP (en impacto/citas) son de mejor calidad e incluso más impacto que los de revistas no TOP

Quizás nos llevemos la sorpresa de que el impacto del articulo no tenga nada que ver con su calidad, o que el impacto del articulo no tenga que ver con el impacto de la revista (eso es lo que yo sospecho, pero la investigación de los próximos tres años intentará dilucidar si tengo razón o no)

 

Visitas: 15

Una breve historia de casi todo

Acabo de terminar mi primera lectura de verano (Bill Bryson (2005). Una breve historia de casi todo). Me ha resultado un libro interesante en muchos aspectos. Pero, además, me ha permitido reflexionar sobre algunos detalles sobre la ciencia en general que me ayudan a relativizar muchas cosas de las que suceden en mi profesión en la actualidad.
Por ejemplo:
* La química es ciencia desde 1661 y una de sus primeras revistas científicas data de 1848 (la geología, geografía, zoología tenían revistas 20 o 30 años antes.. y las matemáticas y la física son ciencias desde muchísimo antes) y, a pesar de los avances logrados están bastante lejos de poder dar repuesta a muchas preguntas básicas acerca del mundo que nos rodea. No podría decir en qué fecha el management se consolida como área científica y se publica su primera revista científica (yo suelo pensar que es sobre 1948, pero no tengo ninguna evidencia cierta).
* La meteorología empezó como ciencia a finales de 1700 y predice como predice el comportamiento del clima. La psicología y el management son mucho más modernas, de modo que no debemos de extrañarnos de que siga siendo difícil predecir el comportamiento de personas, grupos y organizaciones.
* Todas las ciencias han pasado (y quizás siguen atravesando) periodos de devaneo teóricos más que notables. Lo que en un tiempo se considera la verdad absoluta y es defendido a ultranza, en 40-50 años se demuestra que era incorrecto o incompleto (no solo en la pre-historia de la ciencia, en ciencias asentadas esto ha pasado con frecuencias a lo largo del siglo pasado).
* Casi todas las grandes ideas científicas han tardado años (muchas veces décadas) en ser aceptadas. La reacción más probable ante las novedades científicas es la critica salvaje, desproporcionada y muchas veces infundada para menospreciar la novedad y a su promotor.
* Los sesgos de publicación se han dado siempre y en todas las disciplinas (es habitual que las revistas prestigiosas de cualquier época rechacen la publicación de resultados de investigación que luego han dado origen a premios Nobel)

Visitas: 80

¿Qué revistas científicas se pueden considerar indexadas de prestigio? ¿existen los predatory indexes?

Con frecuencia recibo consultas acerca de mi opinión sobre la calidad de diferentes revisas. Supongo que me han preguntado porque consideran que soy una persona experta porque he invertido varios años como subdirector de investigación del Departamento de Organización de Empresas en diferentes equipos. O quizás sea por el seguimiento y apoyo que he dado a la comisión de Indice de Actividad Investigadora de la UPV a través de una cantidad bastante elevada de «gregales» (sistema de gestión de incidencias, quejas y sugerencias internas en la UPV) emitidos a lo largo de los últimos 10-12 años. También es posible que me pregunten por mi experiencia con todo el sistema de indexación ya que soy editor jefe o participo en el comité editorial de varias revisas «indexadas».

La última tanda de preguntas recibidas tenía que ver sobre si se podía considerar como «indexada» determinada revista. Interesante cuestión que me ha animado a escribir esta entrada.

Primero quiero insistir en un asunto de terminología:  no se debería hablar de revistas indexadas o no indexadas… indexadas hay miles (es tremendamente sencillo estar indexada en algún sitio, es decir estar dada de alta en una base de datos de revistas científicas). Indexadas con indices relativos hay menos (muchas menos).

Indices relativos tienes en JCR, ScimagoJCR, pero también en Journal Scholar Metrics, google citations, DICE, MIAR, ICV de Copernicus … la dificultad está en definir cuáles de los indices relativos son fiables y dónde están los puntos de corte para marcar revistas de prestigio si el índice no crea bloques o cuartiles. Por ejemplo, Scimago JCR además del índice, agrupa la revistas en cuartiles; DICE tiene las revisas agrupadas en 4 niveles de mas a menos calidad;  pero MIAR o ICV-Copérnicus solo ponen un numero (cuanto más grande mejor, pero no sabes los puntos de corte por niveles).

A estos índices se pueden añadir aquellos desarrollos locales (nacionales, autonómicos, de una universidad o de una asociación científica) que se hayan creado con un fin específico. Por ejemplo, las universidades australianas han pactado un indice que les sirve de referencia; las universidades catalanas usan MIAR como referencia; la universidad de Cambridge tiene  un listado agrupado en 4 niveles (como hace el DICE) que indica cuáles son las revistas de más a menos prestigio; o, por poner un último ejemplo,  la UPV tiene una clasificación de revistas en 4 niveles (ahora están modificándolo para que sean 6), creada por la comisión del Valoración de la Actividad Investigadora de la UPV (que entra dentro del programa DOCENTIA, integra todos los campos científicos en la que la UPV se mueve y lo hace con el espíritu de que sea JUSTA la comparación inter-disciplinas. Además,  tiene un sistema de decisión auditado, sensato y establecido durante años). Por supuesto, ninguno de estos ejemplos es perfecto (no sólo porque es difícil tener claro el criterio que hace que una revisa científica sea de calidad o no) pero representan soluciones de compromiso alcanzadas a través de un consenso y que permiten tener un sistema más ajustado y acorde a las necesidades concretas de una institución.

Personalmente creo que, además de JCR y Scimago JCR, hay algunos otros indices solventes (Journal Scholar Metrics , google citations, DICE, MIAR, ICV de Copernicus…). Quizás, los más claros para el campo de la Organización de Empresas en España serían:

  • DICE-que surge de un convenido de CSIC con ANECA y la ANECA usa esta base de datos como referencia de calidad-
  • Journal Scholar Metrics (en el fondo se alimenta de datos de google scholar citations, pero lo mejora incorporando indicadores bibliométricos más potentes y categorizaciones).

Para finalizar, quería expresar una preocupación que me ha empezado a rondar por la cabeza. Me temo que pronto se disparará el negocio de crear indexadores. Hasta ahora, los índices de revistas que se valoran en España están en manos de grandes grupos editoriales multinacionales (Thompson, Elsevier y quizá Google se puede incluir en este paquete). Nos  hemos fiado de sus «rankings» porque son unas empresas monstruo que han intentado (y casi conseguido) tener el monopolio de este servicio. Pero, en el fondo, son entidades que velan por sus propios intereses y la ciencia es una escusa para hacer su negocio (que, en algunos casos, no es demasiado transparente). También hay índices que  han sido desarrollados por colectivos científicos independientes apoyados con fondos públicos nacionales aunque, paradógicamente, no son considerados por las propias instituciones que los financian, que prefieren dar prioridad a los listados de JCR o ScimagoJCR (también es cierto que España está financiando el desarrollo de JCR y scimagoJCR a través de la suscripción de la FECYT de SCOPUS y WEBofScience para todas las universidades públicas españolas).

En este contexto no resulta imposible imaginar (y esto es lo que me preocupa) que los mismos estafadores que inventan los predatory journals y los predatory meeting, ahora extiendan  su fraude orientándolo a los predatory indexes (porque seguro que hay un negocio en ordenar revistas y habrá gente está dispuesta a pagar una fortuna para que sus revistas estén en la parte TOP de algún indice -independientemente de las garantías científicas del indice-) y ese es un peligro al que tendremos que enfrentarnos en el futuro.

Visitas: 95