¿Qué puedo compartir en un repositorio publico de mis investigaciones publicadas?

Sin duda, los servicios de biblioteca de tu universidad te pueden asesorar con todo detalle sobre este punto.

Pero si quieres una respuesta rápida, aprovecho que me han estado preguntando algunas personas conocidas y pego en público lo que les he contado en privado.

Como cada revista elige un sistema mas o menos restrictivo, y no siempre es fácil localizarlo en sus páginas web, creo que la opción más rápida de consulta es ir a que puedes consultar en https://v2.sherpa.ac.uk/romeo/

Desde el punto de vista práctico hay tres tipos de documentos (realmente hay más pero para simplificar, lo dejo en tres) sobre los que pueden ejercer copyright -independientemente de que los hayas maquetado tu 😉 –
a) Published version (versión editorial): el documento tal como se publica, maquetado con el formato, logos etc de la revista. por extensión también incluye galeradas previas o lo que se publica definitivo
b) Accepted version: un documento (tanto si el aspecto formal es una plantilla de la revista como si no hay logos ni maquetación tipo lo que saldrá publicado) que ha pasado el proceso de revisión y hay sido «mejorado» gracias al «trabajo» de la revista.
c) Submitted version: lo que tu mandas a la revista en el primer envío y que es de los autores-as, sin ninguna aportación de nadie más (ojo, quitando la plantilla con logos y estilo de la revista. Es decir, copiado el texto a un fichero que no te haya dado la revista).

La «submitted version» es siempre distribuible, ninguna revista puede exigirte nada de esto (no tienen el Copyright cedido de eso jamás). Ojo, que muchas veces hacemos de maquetadores y lo que mandamos en primera instancia es sobre una plantilla de la revista… si es así pasa a ser un híbrido que se regiría por los permisos de «accepted version».

La mayoría de revisas te dejan difundir en open el «accepted version» -sin logos ni nada de eso-  pero tras un periodo de embargo (que depende de cada revista).
Resumiendo, para cumplir con financiación de EU, si no quieres calentarte la cabeza  comparte b) (pero sin logos ni maquetacion parecida a la revista). Siempre que sea en un repositorio no comercial no creo que nadie vaya a comprobar si era la de primer envio o la que modificaste tras revisiones ni te vayan a penaliza por eso. Si quieres ser muy purista, comparte c) (si eres capaz de localizar ese fichero tras las 4 o 5 versiones modificadas que habrás tenido que hacer..). En el fondo yo opto siempre por b) porque me parece un absurdo total todo este proceso: si lo has mandado a una revista te lo han rechazado tras revisión y has vuelto a escribirlo y lo has mandado a otra ¿que deberías poder subir en abierto? ¿la primera primerísima versión, que seguramente era inadecuada? ¿la que has mandado a la segunda revista gracias al trabajo de la primera -que no se como una rosca de atribuciones-? En fin, que yo solo acepto que la revista está reteniendo derechos por su imagen de marca (published version). Todo lo demás es trabajo científico hecho por personas que dedican su tiempo para hacer crecer la ciencia. Punto.

Algunas reflexiones sobre gamificación en universidad superior y simuladores

Yo estuve buscando simuladores hace años y acabé desistiendo porque casi todos tenían un enfoque que no me encajaba (mucho comercial, mucho finanzas. Casi nada de decisiones productivas o de gestión de recursos humanos -que es lo que me interesaba por mis contenidos de asignaturas-). De vez en cuando sigo dando un vistazo  pero me parece que no han avanzado en la linea que me interesa (que los estudiantes puedan aplicar los contenidos de MIS asignaturas y no los de otras asignaturas).

Supongo que busco algo como lo que hacen mis compañeros (Alejandro y Francisca) de Alcoy, pero adaptado a otros contenidos. http://www.llog.es/ (https://www.researchgate.net/publication/291274203_LLOG_UN_JUEGO_PARA_FORMAR_GRANDES_PROFESIONALES_DE_LA_LOGISTICA).

He visto algunos simuladores que ofrecen empresa (creo que mas vinculadas al desarrollo de contenidos multimedia que a la formación) y, me da la impresión, que se parece a los juegos FIFA NBA y similares: tienes un presupuesto que amplias ganando partidas y con eso construyes tu equipo de jugadores… si eso lo trasladáramos a que reclutas a tu equipo de colaboradores en la empresa contratando por competencias y consiguiendo clientes resolviendo problemas «reales» tendríamos el simulador con el que sueño (y nadie hace/ofrece). Estaría relacionado con la «evaluación auténtica». Es lo que intento hacer mis asignaturas pero a través de casos y dinámicas de rol (que es la parte low cost de esta «gamificación»). Es decir, tengo parte del guion y tengo las tareas/decisiones, pero no uso una ambientación potente (orquestada con un software que genere un entorno virtual que simule un espacio de trabajo).

Esto lo completo con dinámicas. Pero, para mi, las dinámicas entran dentro de otro contexto de intervenciones. Tienen unos objetivos muy concretos -romper el hielo, ayudar a la motivación o retención de una experiencia….- pero no aspiran a generar un aprendizaje por si solas, son solo una palanca para que se produzca el esfuerzo necesario para el aprendizaje.

Como reflexión adicional, no me creo el aprendizaje sin esfuerzo. Cuando escucho a alguien proponer «vas a aprender sin esfuerzo», a mi siempre me «echa para atrás». Porque no creo que sin esfuerzo pueda pasar de un aprendizaje superficial.

Considero que el aprendizaje requiere tiempo y esfuerzo. Cuanto más complejo y profundo el aprendizaje, más tiempo y más esfuerzo. Pero, para mi, el esfuerzo no está reñido con disfrutar. Al contrario. Cuanto más tiempo y esfuerzo he dedicado a ser competente en algo, más he disfrutado. Tanto del proceso de aprender como del resultado que logro tras esos aprendizajes (para lo que uso esos aprendizajes). Me daba lo mismo que fuese aprender habilidades de Rugby, que aprender a usar R para resolver un algoritmo de optimización, o ser capaz de hacer una descripción de puestos de trabajo con una metodología concreta… Quizás la cuestión clave es si a nuestros estudiantes les apasiona alguna profesión vinculada a lo que están estudiando…Quizás el problema es que tengamos un perdida de vocaciones y, para encubrirlo, pongamos por delante el distraerles en lugar de educarles.

Mis criterios para elegir una aplicación de dibujo

Hay dos cosas en mi trabajo para las que necesito unas aplicaciones de dibujo con ciertas prestaciones (algo más que un powerpoint o un visio, que van bien para diagramas, pero no son muy eficientes para otros tipos de representaciones).

Una de ellas son los «cartoon abstract» con los que pretendo difundir mis trabajos de investigación, en linea con mi propuesta de difusión de ciencia en 5 fases (https://doi.org/10.4995/wpom.11755).

La otra es para mis recursos docentes (a veces los que uso en mis sesiones «cara a cara» y otras para los videos didácticos que grabo)

Las principales funciones que necesito son (no están en orden de importancia):

  1. Capas
  2. Canvas infinito (y que la exportación de este canvas a PSD o PDF deje un documento «legible»)
  3. Exportación como PNG (para tener fondo transparente que puedo reutilizar en ppt u otros contextos), PSD (para poder editar las capas con otro software como GIMP u otros de dibujo) y PDF para difusión del trabajo
  4. Aplicación android (para poder trabajar desde mi tableta) y Windows10 (para poder continuar mi trabajo desde el ordenador de escritorio)
  5. Precio asequible y como un unico pago (no quiero software de suscripción porque nunca sé si tendré fondos para renovar el periodo siguiente y, además, los procesos administrativos en mi universidad son un infierno y al final tengo que acabar pagando de mi bolsillo las aplicaciones que uso para mi trabajo. Quiero tener el dolor de cabeza solo una vez en la vida o por lo menos una vez cada 4-5 años, que es cuando compro una actualización). Asumo que me tocará pagar una licencia para android y otra para windows10 de modo que pagaré por duplicado.

Algunas de las aplicaciones que he tanteado. Todas ellas tienen capas:

  • Medibang: gratis pero con anuncios insufribles. solo exporta JPG (se pierden las capas al exportar). Pero está en andorid + windows y sincroniza a través de la nube. no es canvas infinito
  • Concepts: 15 euros en cada sistema (pinceles aparte, pero no necesito pinceles sofisticados). canvas infinito,. Android y windows. esporta PSD, PNG. PDF. No sicnroniza en la nube pero puedo usar sus ficheros en diferentes apps, sin perdida
  • Infinite painter. 5 euros. Solo android
  • SketchBook: gratuito. Android y Windows. exporta JPG,PNG, PSd

 

Cómo pegar una imagen desde portapapeles en el nuevo editor de WordPress

usando el bloque de párrafos (no el de PÁRRAFO CLÁSICO). Es compatible con la transformación de múltiples bloques de párrafo, imagen, tabla, lista, cita, HTML personalizado y la mayoría de los demás bloques.

Si hago un párrafo clásico, no puedo pegar imagen de portapales pero tengo todos los menús gráficos para configurar

Pero si el bloque es PÁRRAFO , entonces si que puedo pegar la imagen desde el portapapeles, pero tengo muy pocas opciones de formateo en el menu

How to: limesurvey reenviar resultados de encuesta

Limesurvey (https://www.limesurvey.org/es/) es una fantástica plataforma para encuestas o diagnóstico. Dispone de una cantidad enorme de posibilidades y opciones. Es una de mis aplicaciones favoritas desde hace más de 10 años y la uso con frecuencia.

Uno de los problemas recurrentes a los que me he enfrentado, no tienen que ver con la plataforma, sino con el modo que los gestores de correos procesan los correos automáticos. Una de las funcionalidades que mas uso es que al acabar un cuestionario o un diagnóstico, la plataforma manda un informe detallado con una información generada a partir de los datos introducidos en el diagnóstico. Es cierto que me gustaría poder hacerlo más visual e incorporar gráficos para que no fuesen solo tablas. Pero ése no es el problema que me preocupa. El problema es que el correo lo envía un servidor y muchos gestores de correos (en especial Gmail los ultimos meses), deciden que ese correo es SPAM y las personas participantes se pierden la información.

Cuando me escriben solicitándome el informe tengo que perder mucho tiempo para generarlo de manera manual (descargando datos, procesándolos, montando el correo y enviándolo). Además tengo que hacer múltiples comprobaciones para asegurarme de que no estoy mandando la información de otra personas.

Eso en el caso de que la encuesta no sea anónima y pueda identificar a la persona participante.

Pero hoy se me ha ocurrido una forma de resolverlo y ha funcionado (al menos para lo que yo necesito). El proceso requiere de varios pasos y, como no es algo que haga todos los días, es posible que se me olvide. De modo que voy a escribir esta entrada para poder usarla como «chuleta» en el futuro.

Objetivo: que limesurvey vuelva a enviar «al participante» el correo que manda cuando se acaba un cuestionario. Obviamente la persona receptora debe estar al tanto y haber rebajado el nivel de filtro spam o revisar también esta carpeta y no solo la carpeta de entrada de su buzón de correo electrónico.

El procedimiento implica editar dos tablas: la de tokens (participantes) y la de encuestas. Si solo retocas una el resultado no es el deseado.

Primer paso: (este tiene que ser el primer paso, si no se hace, se crearía una respuesta nueva desde cero para el token, que no es lo que queremos)

En la TABLA de respuestas edito la respuesta y la marco como NO COMPLETADA

Segundo Paso:

En la tabla de TOKENS (participantes) edito el TOKEN para indicar que la encuesta está INCOMPLETA

y, ADEMAS, que le queda 1 use left (si no hago esto, me dirá que el usuario ya ha completado todos los intentos disponibles y no conseguiría nada)

Ahora ya puedo lanzar la encuesta con este token

y, como ya había completado todas las pantallas, me sale la pantalla final que me confirma que ha mandado el correo:

Es cierto que todo este proceso me puede «robar» entre 3 y 5 minutos, pero es infinitamente menos tiempo que el procedimiento manual y, sobre todo, no puedo cometer errores.

Oposición a cátedra, un proyecto ilusionante

Esta semana he empezado a preparar la documentación para una futura oposición a Cátedra de Organización de Empresas. Aun no hay fechas, pero tengo bastante trabajo por delante.

He decidido aprovechar este evento para hacer un ejercicio de reflexión que llevo madurando desde hace tiempo, pero que nunca había sido urgente concretarlo. Por lo tanto, no voy a preparar el «papeleo» de la oposición. Lo que voy a hacer es un mapa estratégico (Bryson et al, 2014) de mi papel como funcionario al servicio de la sociedad y, a partir de eso, desplegar un proyecto docente e investigador planteado con sentido práctico y aplicable.

Continuando la linea que inicié en anterior oposición (hace ahora 20 años), voy a distanciarme del formato de los proyectos que se presentan habitualmente. Voy a aplicar el mismo enfoque con el que abordo la elaboración de solicitudes para proyectos de investigación. Esos proyectos en los que invierto entre 200 y 300 horas en elaborarlos y luego nunca consigo financiación pública. Sin embargo, mi forma de plantearlos me permite luego desplegar de manera muy fácil la investigación (que acabo financiándome yo mismo, ya que nadie más cree en su utilidad). Al menos así, no desperdicio las horas de trabajo invertidas en la creación del documento.

No me atrae hacer proyectos de una forma que no les pueda ver una utilidad clara para mi. Me resisto a invertir una considerable cantidad de horas en generar un documento cuyo destino sea ir a la papelera tras la oposición. Quiero que su escritura me resulte interesante y apasionante. En mi caso, eso solo podrá lograrse si me ayuda a cuestionarme aspectos de mi profesión, me obliga a reflexionar críticamente, me permite descubrir cosas y que me catapulta a actuar enfocado en una dirección relevante.

De momento,  he empezado con la lectura de estos libros:

  • Bryson, J. M., Ackermann, F., & Eden, C. (2014). Visual strategy. Strategy mapping for public and nonprofit organizations. San Francisco: Jossey-Bass
  • Ramio, C. (2014). Manua para los atribulados profesores universitarios. Madrid: CATARATA
  • Evans, L. (2019). Catedráticos de universidad. De lideres académcios a académicos que lideran

Y he elaborado un primer borrador (aun en construcción) de mapa estratégico:

Borrador mapa estratégico 20210328

El próximo paso es integrar mis anotaciones de de Evans (2019) y Ramio (2014)

Zapatero a tus zapatos. En contra del escrache a revistas académicas

"Un motín es una cosa muy fea" (el Jovencito Frankenstein) y el monstruo no era tan malo, eran más bien los miedos de los aldeanos.

Me ha costado elegir el título de la entrada y espero que nadie se sienta molesto. Pero creo que es lo que mejor representa la situación. Creo, también, que aporta el camino para solucionarlo: si crees que una revista académica, de las que están listadas en Web Of Science (WOS) o Scopus, está incurriendo en malas prácticas editoriales/científicas. En lugar de participar en un linchamiento, usa los procedimientos establecidos para denunciarlo:

  • En WOS: manda un correo indicando el problema, la revista y su ISSN a Product Support <wosg.support@clarivate.com>
  • En Scopus: contacta con title re-evaluation team re-evaluation@scopus.com

El origen de esta entrada son todos los corrillos de sospechas vertidas sobre una revista académica y, por extensión, a la editorial que la publica. Son comentarios del tipo «conozco a alguien en ANECA que me ha dicho que la revista **** es predatory (a pesar de estar en Q* en JCR). Te aconsejo que no publiques en esa revista». Casi siempre, ese comentario suele ir acompañado de la respuesta de otra persona que dice algo parecido a: «si, si, yo conozco a alguien que pago por publicar en esa revista» y se va liando la cosa.

En el fondo, cuando observo todo esto desde fuera, me da la sensación de que es la misma forma como se difunden los bulos o «fake-news» y lo que me preocupa es que haya gente académica enganchada en esta actividad.

Voy a empezar con una frase que igual no me gana amistades y quizás consiga que alguien se moleste y no siga leyendo la entrada (una lástima porque luego explico detalles que pueden ser interesantes):

Que lleves años investigando y publicando no te convierte en experto en evaluación de la calidad editorial de las revistas (yo no lo soy tampoco, por eso creo que hay que ser muy prudentes antes de poner una etiqueta negativa a una revista)

Por suerte, o por desgracia, existen expertos. De hecho, los sistemas de evaluación de la calidad de la investigación en España han abdicado de esa tarea y la han delegado hace años en esos expertos. Exacto. Lo has adivinado. Me refiero a Clarivate-WOS con su JCR y a Scopus, con su «cite-score» o su primo SJR (hay algunos más pero en España no se consideran apenas).

Estas dos plataformas se han convertido en el referente de lo que es una revista académica «con calidad editorial». Normalmente se confunde la calidad editorial de la revista con la calidad científica de los artículos que publica. Se confunde porque tienen cierta relación… Pero son dos cosas distintas. Y casi siempre se confunde calidad científica de un artículo con número de citas recibida (de nuevo, son cosas que pueden estar relacionadas, pero no son lo mismo).

Para WOS y para Scopus, la calidad académica de la revista está clara: se trata de cumplir una serie de criterios, que son los que sus expertos tienen en cuenta para indexar una revista en sus bases, o para expulsarte si dejas de cumplirlos. Puedes consultar la lista de criterios en las tablas 1 y 2 de https://polipapers.upv.es/index.php/WPOM/article/view/8989/9910 o aquí. https://www.elsevier.com/solutions/scopus/how-scopus-works/content/content-policy-and-selection


Por lo tanto, primera conclusión:

Si una revista está en uno de esos listados es una garantía de que es una revista «decente» (estar en dos, significa que, además tienes dinero o tiempo para toda la burocracia que exige estar en esos listados)

Obviamente las revistas pueden evolucionar, para bien o para mal. Las personas que actúan como editoras de la revista pueden tomar decisiones que no coinciden con las normas publicadas de la revista (las que determinan su calidad editorial). A veces son errores esporádicos y aleatorios. Eso no representa ningún problema. Solo cuando estas desviaciones son sistemáticas, estamos ante un caso de posible «fraude académico» y eso se puede (y se debe) denunciar para que los servicios de indexación (Scopus y WOS) pueda actuar y sacarla del listado si fuese necesario.

Si en lugar de denunciarlo a WOS o a Scopus, nos dedicamos a criticar en corrillos y hacer de «la vieja del visillo», creo que no hacemos ningún favor a la ciencia. La denuncia la debe iniciar la persona que haya sufrido la situación o las que tengan pruebas fehacientes de la mala praxis.

Segunda conclusión:


Por muy diligentes que sean WOS y Scopus, limpiar sus bases les cuesta cierto tiempo (quizás un par de años desde que una revista inicia un camino equivocado hasta que es expulsada). Entre otras cosas, porque primero deberían advertir y, solo si no corrigen la trayectoria, expulsar a la revista.

Pero los pobres mortales que nos dedicamos a investigar y difundir los resultados de nuestra investigación, o las comisiones de evaluación (que están formadas por un grupo de esos mismos mortales), no tenemos las herramientas para estar al tanto de todo esto y solo podemos fiarnos de lo que hacen los expertos (WOS y Scopus). Porque los hemos considerado como tales. Nadie nos obligaba, pero decidimos otorgar todo el poder a la posición de cuartiles de las revistas (porque es cómodo y barato y sencillo y cuantificable y objetivo). Por lo tanto, ahora hemos de ser coherentes y transparentes.

Tercera conclusión:

No se pueden aplicar penalizaciones con efectos retroactivos. Si dices que un Q1 es una revista buena, no puedes luego decir, que bueno, depende de qué Q1, porque ahora voy a ser yo el experto, unas veces el experto es WOS/Scopus y otras yo… según me convenga y con efectos retroactivos. Eso, a mi, no parece muy transparente.

Pero ¿qué es una mala praxis editorial? pues la verdad es que no hay muchas (http://redc.revistas.csic.es/index.php/redc/article/view/868/1172). normalmente los problemas de mala praxis son más problemas de los propios autores-as que de los editores-as de las revisas.

Por eso voy a centrarme en cosas que suelen criticarse pero NO son malas prácticas. Aunque nos extrañen, sean «novedosas», o no nos gusten, o no las compartamos, o creamos que los fondos públicos de investigación no deberían ir a parar a los bolsillos de editoriales que se están haciendo un gran negocio con la publicación científica (como Elsevier, SAGE, MDPI, Frontiers y otras).

  • Publicar muchos artículos al año: eso no es ni bueno ni malo. Debes tener recursos para gestionar el volumen, solo eso. Si cuentas con suficientes personas como para hacer un filtrado y una buena revisión de todo ese volumen, no hay nada que objetar (quizás envidiar cómo lo consigues). Hay revistas con muy buena imagen científica que publican miles de artículos al año (y nadie se cuestiona su calidad). En el fondo si publican mucho y están altas en los indices de impacto es que hay mucha (muchísima) gente que cita sus trabajos, de modo que: a) tan malos no son los artículos que publica; b) el número de citas no sirve para valorar la calidad de un trabajo de investigación; c) están haciendo trampas para inflar las citas (solo en este caso es denunciable y quien tenga una evidencia, que lo denuncie cuanto antes).
  • Hacer muchos «Special Issues»: en principio es lo mismo que el punto anterior, con un pequeño matiz. Los números regulares los filtras con el equipo editorial de la revista. Para los números especiales fichas a gente que va a colaborar de manera puntual. Si el «fichaje» se hace con criterio y se elije a personas que se van a implicar y tienen buen conocimiento del tema del número especial, no debería constituir ningún problema (más bien todo lo contrario). De modo que si la revista puede hacer una buena selección de editores-as y puede gestionar ese volumen extra de trabajo, estamos con en el primer punto. Nada que objetar.
  • Cobrar APC (Article Processing Charges) a los autores: mantener una revista tiene un coste. O lo paga una asociación o universidad, o lo paga el lector, o lo paga el autor. No le veo muchas más opciones. ¿Que algunas tasas de APC están o sobrepasan el límite de la usura? Si, estoy de acuerdo. Pero eso no significa que no tengan calidad (editorial o científica de sus trabajos), solo significa que alguien quiere aprovechar la situación para hacer dinero con un modelo de negocio legal (nos guste o no).
  • Cerrar el proceso editorial rápido: esto no es ningún problema. Al revés, es lo que todos desearíamos: que el proceso editorial sea lo más rápido posible sin perder su rigor. Si haces un análisis de tiempos, procesar un artículo probablemente no requiere de más de 15-20 horas de tiempo neto. Repartidas entre 4-6 personas diferentes que, en algunas etapas, pueden trabajar en paralelo. El problema es cuánto tardas en liberar el tiempo necesario para ocuparte del articulo. Tener el articulo 3 semanas en tu bandeja de entrada no le aporta ningún valor al proceso de revisión ;-).
  • Hacer un marketing «agresivo» de la revista (mandar correos a profesionales que publican sobre los temas de la revista): que nos llenen la bandeja de entrada con correos invitándonos a mandar artículos o leer sus publicaciones puede no gustarnos… Pero es lo que hay. Yo, al menos, prefiero que el SPAM de mi correo sea información sobre números especiales de temas sobre los que publico o sobre la tabla de contenidos de una revista que suelo leer, que el de la señora nigeriana que me informa de que acaban de nombrarme heredero de un millón de dólares.
  • Que se les cuelen algunos artículos flojos: si publicas 3.000 artículos al año, es normal que algunos de ellos sean flojitos o incluso que alguno tenga problemas serios (si publicas 10 al año es raro que te pase, pero cuando subes exponencialmente, aunque tengan un 99% de acierto en el filtro, si los buscas, vas a poder encontrar artículos con problemas). Lo importante no es que encuentres uno, sino el % que representan los problemáticos sobre todo lo que gestiona la revista.
  • Que el editor-a jefe-a tenga una opinión diferente de uno-a de los revisores-as: salvo que las normas de la revista digan que el editor hará caso a la decisión del revisor más negativo, no es una mala praxis que la persona que ocupa el puesto de editora jefa de la revista haga valer su criterio cuando sea necesario.

Para terminar, las críticas a estas revisas siempre se basan en una experiencia personal: «yo vi (o me contaron) una cosa fea una vez, por lo tanto, no solo la revista, sino también la editorial y todas las revisas que publican son una mierda». Lo voy a contrarrestar con el mismo argumento: yo he visto, no solo una, sino dos cosas muy positivas en una revista de la editorial MDPI, por lo tanto la revista, la editorial y todas sus revisas son fantástica. Aquí os relato mi experiencia:

Como autor en un numero especial. La editora jefa era una académica de rigor indiscutible. También he visto algunos nombres conocidos y respetados al frente de otros números especiales. Recibo 4 revisiones muy completas y muy exigentes. No nos pusieron fácil levantar el «major revision». Pero lo conseguimos tras muchas horas de trabajo. Los comentarios eran realmente de expertos que se habían tomado muy en serio la revisión. Todo el proceso fue muy rápido… de hecho tuvimos que pedir ampliación para envío de la respuesta. Es cierto que la revista hace negocio cobrando una cantidad alta de euros en caso de aceptar la publicación, pero es tan alta como otras muchas revistas de SAGE o de Elsevier y el servicio al autor es mucho mejor.

Como editor de un numero especial. Las decisiones editoriales son cosa mía (he decidido rechazar más del 50% de los envíos y no me han puesto ninguna pega). Además, la ayuda a selección de revisores es muy buena, son investigadores afines a los temas y tras aceptar la revisión suelen hacer revisiones muy exhaustivas y en plazo. A veces intentan asumir el rol de editor más que de revisor (cosa que pasa muchas veces con otras revistas TOP). Y un detalle que no es banal. Soy editor del numero especial y el articulo que mando ha sido revisado por 4 revisores y ha sido gestionado por otro editor de la revista (no se quién es el editor, ni quien me hace las revisiones. Todo el proceso es ciego para mi). En estos momentos lo tengo en segunda revisión porque me han metido bastante caña. Esto no pasa con los «special issues» de ninguna de las otras revistas Q1 que conozco. Allí las editoriales pasan sin filtro… pues aquí las filtran como si fuese un artículo más. De modo que son mucho más exigentes que otras.

 

Desmontando bulos. ¿perjudica a la conexión de una video conferencia que muchas personas conecten su cámara?

Lo primero que voy a hacer es acotar el contexto. Quizás no es lo mismo usar una aplicacion que otra (pues quizás no compriman igual el video o tengan otras particularidades). De modo que dejo claro desde el principio que los datos que ofrezco aquí son para MS TEAMS y los he tomado con un ordenador W10 usando la aplicación de escritorio (en tablet/telefono parece que salen unos resultados parecidos -basándome en el consumo total de mb de datos de una videoconferencia- pero no los he medido segundo a segundo).

He aprovechado una reunión con 5 personas para ver cual es la demanda de red en diferentes escenarios.

El primero es cuando las cinco cámaras de video de los participantes están conectadas (la mia y las de las otras 4 personas). No cambia mucho cuando otra personas se pone a compartir un documento. En principio si lo que se muestra en pantalla se «mueve» el consumo en recepción (bajada) está entre 1,5 y  4 mbps. Da lo mismo que se mueva la cara de una persona, la cara de 5 personas o un video que estás compartiendo. El consumo en bajada es por debajo de 4mbps.

Si en lugar de video animado se comparte una foto estática (porque se apagan las cámaras o se comparte una pantalla sin apenas movimiento) el consumo de bajada está en torno a 1mbps.

Si dejo de compartir mi cámara web y hablo por el micro, el consumo en emisión(subida)  está por debajo de los 100kbps. Si en lugar de cámara web comparto una pantalla sin apenas movimiento sospecho (no lo he probado) que mi consumo de subida se quedará en torno a 1mbps.

 

Si apago cámara y micro y no comparto pantalla, mi consumo de subida se queda prácticamente en nada).

Si todas las personas apagan sus cámaras y nadie comparte pantalla no sé como quedará el consumo de bajada. No lo he probado, pero sospecho que serán dos opciones:

a) (creo que es la mas probable). Más o menos 1mbps (el transmitir una señal de video estática que son los logos de los participantes más el sonido de la reunión). Es decir, que daría lo mismo que uno compartiera pantalla o que solo se viera el panel de círculos sobre fondo gris con los participantes. Creo que es lo más probable porque en el fondo esos logos grises están ligeramente animados (se resaltan cuando alguien habla, cambían de orden… es decir son una señal de vídeo dinámica).

b) se quedará en torno a 100kb (el audio) porque lo que muestra la pantalla no es una señal de video bajada sino los logos de los participantes en estático.

Como conclusión. En el «mejor» de los casos, una reunión TEAMS de 20 minutos consumirá unos 150MB de datos si todos tienen las cámaras apagadas y se comparte audio  y una pantalla estática (1mbps son 0.125 MB cada segundo). Pasarán a ser cerca de 250MB si se comparten las cámaras.

Por lo tanto, si no importa el consumo de MB total de la sesión (no estas usando bono de datos sino una conexión de WIFI sin limitación de consumo periódico), la conexión de todas las personas con cámara web no debería ser un problema si tienes red de 5 mbps o más en cualquiera de los sentidos -subida o bajada-. TEAMS, como mucho, va a consumirte 2 mbps de subida y 2 mbps de bajada. De modo que no vas a experimentar saturación (salvo que estés al mismo tiempo con otras aplicaciones que consuman recursos de red).

 

Reto Trello contra Planner

Esta semana he completado una actividad con mis alumnos del master MUGESP en la UPV.
Se trataba de reflexionar sobre la utilidad de los tableros virtuales (gestores de tarea) para ayudar al funcionamiento de grupos de trabajo y, de paso comparar Trello y Planner en su capacidad para realizar una serie de funciones que son habituales en el trabajo en grupo (al menos en los grupos que yo trabajo necesito con frecuencia este tipo de funciones).

Esta es la lista que cosas que hemos hecho en cada plataforma (la mayoría de las personas solo han usado Planner, unos pocos han usado Planner y Trello)

  1. Crear una tarjeta para cada ítem de esta lista. Las creas como “pendiente” (“to do”) y a algunas de ellas le asignas un día de ESTA semana como fecha tope
  2. Asígnarte como “responsable” en cada tarjeta que CREAS (toda tarjeta que crees debes asignártela a ti) (se puede asignar a varias personas pero para no liar, ahora solo nos la vamos a asignar al que la crea)
  3. Reordenar tarjetas en un carril o muévelas de carril (es como un diagrama de afinidad)
  4. Adjuntar un fichero a una tarjeta
  5. Hacer  una listas de subtareas en UNA tarjeta. Una de las subtareas se denominará “6. Convertir alguno de los ítems de la lista de subtareas a tarjetas”
  6. Convertir alguno de los ítems de la lista de subtareas en tarjetas
  7. Reordenar los ítems de una lista de subtareas dentro de una tarjeta
  8. Incluirte en el seguimiento de los cambios en alguna o todas las tarjetas sin tenerla asignada
  9. Mencionar a una persona en la descripción de la tarjeta o comentarios y que les llegue una notificación personal (si tienen configurada las notificaciones)
  10. Vincular una tarjeta a otra (meter un enlace que te haga pasar de una a otra en la descripción o en los comentarios)
  11. Mostrar las tarjetas en un calendario para ver el vencimiento
  12. Filtrar las tarjetas por persona asignada, etiqueta u otros criterios
  13. Votar varias de las tarjetas (que reciban puntos o “likes”)
  14. Reordenar o filtrar las tarjetas en base a los votos recibidos
  15. Copiar una tarjeta dentro del mismo equipo/Tablero y copiar en otros equipos/tableros (donde haya otros participantes)
  16. Encontrar un tarjeta que tenga una palabra en la descripción o este asignada a una persona o cualquier otro valor introducido en algún campo del detalle de la tarjeta
  17. Crear plantillas de tableros o tareas que se puedan reutilizar fácil (parecido a copiar pero solo precargados los campos con un valor por defecto personalizado)
  18. Quitar añadir personas al  “tablero” (board) (sin eliminarlas o añadirlas a otros tablero u otros sitios)
  19. Pegar, desde el portapapeles, una imagen en la descripción o comentarios

Y estos son los resultados de comparación donde Trello sale ganador:

Y estos son los resultados de Planner desglosados por funciones (se puede ver que hay cosas que no hace demasiado bien)