J'ai examiné un article soumis pour un petit magazine. Il a présenté un algorithme pour effectuer une tâche d'allocation et a comparé ses performances à celles de plusieurs autres algorithmes de la littérature effectuant la même tâche de plusieurs manières (les résultats, c'est-à-dire l'allocation, peuvent être évalués en fonction de l'utilisation de plusieurs ressources différentes, donc un résultat pourrait utiliser moins de ressource A, mais plus de ressource B, et ainsi de suite).
Mon opinion était que, bien que l'algorithme soit mal présenté et que l'article soit presque incompréhensible, les résultats présentés semblaient bien, donc les auteurs méritaient une autre chance de mieux s’expliquer, donc je n’ai pas suggéré de le rejeter complètement.
Le premier tour d’examen s’est déroulé avec un verdict unanime de "révisions majeures".
Ensuite, on m'a demandé de revoir la deuxième version soumise de l'article aussi. Dans cette nouvelle version, l'algorithme avait été comparé à une gamme beaucoup plus large d'algorithmes. Le problème est: même si les algorithmes auxquels ils étaient comparés ont changé, les graphiques de comparaison sont restés exactement les mêmes, et les regarder côte à côte n'a révélé aucune différence (aucune donnée numérique explicite n'a été fournie) .
Ce qui est pire, c'est que le changement n'était même pas un pour un. Dans la première soumission, l'algorithme (appelons-le A) a été comparé aux trois mêmes autres algorithmes dans toutes les catégories (utilisation de la ressource A, utilisation de la ressource B, etc.) tandis que dans la deuxième soumission, chaque comparaison de ressources impliquait des algorithmes différents, donc pour Par exemple, A a été comparé à B, C et D dans l'utilisation de la ressource A, mais il a été comparé à C, E et F dans l'utilisation de la ressource B, et ainsi de suite.
Néanmoins, chaque graphique de la deuxième soumission était identique à celui de la première soumission.
À ce stade, j'étais à peu près certain qu'au moins la deuxième série de comparaisons avait été complètement falsifiée, c'est-à-dire que les auteurs venaient de changer les étiquettes sur les graphiques.
En demandant à l'un de mes collègues seniors, on m'a conseillé d'ignorer simplement le problème et de ne pas soulever de chahut, car ce problème a de fortes chances de se retourner contre vous: nous ne sommes pas une institution universitaire, nous sommes le département R&D d'une jolie petite entreprise privée, donc nous avons très peu de poids politique et de réputation scientifique.
Je me demande si je devrais vraiment soulever cette question avec l'éditeur, avec qui mon entreprise entretient des relations commerciales , comme nous sommes partenaires dans plusieurs projets financés par le gouvernement, ou je devrais tenir compte des conseils de mon collègue.
Bien que l'article ait très peu de chances d'être publié car la deuxième soumission est également presque illisible, un co-auteur de cet article a un indice h extrêmement élevé (100+), donc je pense que si mes soupçons sont fondés, ils devraient vraiment être mis en lumière.