Question:
Que devez-vous faire si vous ne pouvez pas reproduire les résultats publiés?
F'x
2013-02-10 14:55:06 UTC
view on stackexchange narkive permalink

J'essaie de reproduire les résultats publiés dans un article. Ces résultats proviennent de simulations numériques. Les auteurs originaux et moi n'utilisons pas le même logiciel, et le leur est propriétaire (je n'y ai pas accès). J'ai essayé de reproduire leurs résultats, et cela fonctionne qualitativement mais pas quantitativement: les différences entre leurs résultats et les miens sur des quantités d'intérêt typiques sont entre 2 et 5 fois la précision attendue de la méthode.

Jusqu'à présent , J'ai communiqué avec les auteurs originaux, en essayant d'éliminer toutes les sources d'erreur possibles auxquelles je pourrais penser (vérifié que j'avais bien compris les parties délicates des algorithmes, vérifié que les paramètres «habituels» qui manquaient dans leur article avaient le Valeurs «habituelles», tout ce à quoi je pouvais penser). Ils sont assez ouverts et répondent rapidement à mes questions, mais il est clair qu'ils ne veulent pas investir du temps pour faire un suivi sérieux de leur côté. Et sans accès à leur logiciel, il semble que je suis bloqué.

Maintenant, ma question est de savoir comment procéder. Le «cas idéal» pour des résultats non reproductibles est de faire une analyse détaillée de comment et pourquoi ils ne peuvent pas être reproduits, et éventuellement de trouver une source d'échec (ou du moins des problèmes plausibles). Cela fait progresser le domaine, et est probablement publiable (pas dans une revue très médiatisée). Ici, ce n'est pas possible.

J'ai cependant de beaux résultats que j'ai obtenus (étendant leur travail bien au-delà de ce qui était déjà publié), et si je n'avais pas ces différences avec leur papier, cela ferait un papier très attractif. Que puis-je faire avec ceux-ci? Est-il possible de les publier, en notant simplement les différents avec leur article sans plus de commentaires? Ou mes résultats sont-ils tout simplement non publiables? Je suis ravi de tout commentaire, en particulier de la part de personnes qui se sont retrouvées dans une situation aussi inconfortable!

Vous mentionnez différents logiciels. Quelle différence entre les plates-formes matérielles?
@scaaahu ne sais pas, probablement s'en moque :) Les algorithmes sont robustes, je peux exécuter mes propres simulations sur divers matériels avec seulement des différences mineures (100 ulp, tout au plus…). Les différences que j'observe actuellement sont de l'ordre de 1 à 5%.
C'était ma valeur de 2 cents.
Différents logiciels signifient peut-être différents choix techniques qui ont un impact sur la précision, tels que la représentation de nombres réels et d'autres éléments associés. Avez-vous vérifié ces problèmes?
Allez-vous rendre votre code disponible gratuitement?
Pouvez-vous comparer les résultats du modèle aux mesures?
@Nicholas ce n'est pas * mon * code, mais c'est open source. Je peux rendre mes fichiers d'entrée (paramètres complets, etc.) disponibles comme matériel supplémentaire avec l'article…
@F'x Excellent - votre code est donc disponible gratuitement et vous pouvez publier (ou au moins rendre disponible) vos paramètres d'entrée. Les travailleurs intéressés sur le terrain peuvent ensuite reproduire facilement vos résultats et, espérons-le, les confirmer si vous le souhaitez. On ne peut pas nécessairement en dire autant des auteurs de l'article original en raison de la nature exclusive de leur logiciel. J'ai ajouté mon vote à la réponse d'EnergyNumbers. Publier.
J'ai été dans une situation très similaire. La différence est que dans mon cas, le code des autres était une approche différente du même problème que le mien qu'un critique m'a demandé de comparer. Les autres auteurs n'avaient pas publié leur code source, j'ai donc dû implémenter leur méthode à partir de zéro. J'ai passé trois mois à travailler sur quatre tentatives différentes pour mettre en œuvre leur méthode, mais je n'ai pas pu la faire fonctionner. Au final, j'ai publié ma propre méthode sans comparaison avec l'autre car j'ai pu convaincre l'éditeur que j'avais fait un gros effort pour essayer de reproduire leurs résultats.
Huit réponses:
410 gone
2013-02-10 16:40:52 UTC
view on stackexchange narkive permalink

Publiez simplement. Publiez vos tentatives pour reproduire les résultats, en documentant les écarts, ainsi que les bons résultats que vous avez obtenus en étendant leur travail. Pensez à envoyer un brouillon aux auteurs originaux pour leurs commentaires.

Si j'étais le rédacteur en chef de la revue ou de la conférence à laquelle cela a été soumis, j'inviterais presque certainement l'un des auteurs de l'ouvrage original à un examen officiel à l'aveugle.
@ChrisGregg N'y aurait-il pas un conflit d'intérêts pour le critique?
Pedro
2013-02-10 18:23:10 UTC
view on stackexchange narkive permalink

La publication de résultats qui contredisent les publications précédentes peut être gênante, mais si vous pouvez montrer que votre méthode est correcte au-delà de tout doute raisonnable, cela ne devrait pas poser de problème. Aucun code n'est garanti sans erreur et aucun résultat n'est garanti juste parce qu'il est publié.

Vous ne parlez pas beaucoup de la nature de vos calculs / méthodes, mais avez-vous des cas de test pour lesquels des solutions analytiques sont connues ou peuvent être dérivées? Si vous pouvez montrer que votre code reproduit ces résultats, alors vous pouvez faire valoir que les résultats de votre code pour le problème spécifique en question doivent être fiables.

Idéalement, si vous avez un tel cas de test, vous pourrait demander aux autres auteurs de l'exécuter avec leur propre code, et voir s'ils produisent également des résultats corrects. Ils peuvent ne pas vouloir, mais c'est leur problème, pas le vôtre.

En résumé, si vous allez à des longueurs raisonnables dans votre article pour démontrer l'exactitude de votre code / méthode par rapport aux solutions analytiques connues, vous ne devriez pas ' t être trop inquiet de ne pas correspondre aux résultats des autres. Au moins, ce serait mon opinion en tant qu'arbitre.

Comparez «si vous pouvez prouver que votre méthode est correcte à 100%, cela ne devrait pas poser de problème» et «aucun code n'est garanti sans erreur». Il n'y a aucun moyen que je puisse * prouver * que ma méthode n'a pas de bogue.
@F'x: Bon point, j'ai modifié ma réponse en conséquence :) Ce que je voulais dire, c'est montrer qu'elle est correcte au-delà de tout doute raisonnable.
@F'x C'est un peu pédant, mais son code * peut * être prouvé qu'il est correct, même si c'est rare et se produit généralement à petite échelle.
@PeterOlson, votre commentaire demande la célèbre citation de Donald Knuth: * Attention aux bugs dans le code ci-dessus; J'ai juste prouvé que c'était vrai, je ne l'ai pas essayé.* ;)
@Pedro Excellente idée sur le benchmarking, qui est vraiment l'un des meilleurs moyens de valider l'exactitude d'une méthode. C'est vraiment incroyable de voir combien de fois nous, chercheurs, évitons cette étape critique, pensant que tout est en ordre alors que ce n'est pas le cas.
Ilmari Karonen
2013-02-11 02:42:48 UTC
view on stackexchange narkive permalink

(Clause de non-responsabilité: je n'ai aucune expérience personnelle d'une telle situation, donc je ne fais que faire preuve de bon sens. Cela dit ...)

Cela ressemble à vous avez déjà pris toutes les mesures raisonnables pour découvrir la source de l'écart, et il ne vous reste plus qu'un «écart inexpliqué» entre vos résultats et les leurs. Vous dites également que l'écart n'affecte en rien les conclusions qualitatives tirées des résultats.

À ce stade, si j'étais à votre place, je publierais simplement vos résultats détaillés, et notez brièvement l'écart lorsque vous comparez vos résultats avec des travaux antérieurs. Tant que vous êtes raisonnablement certain que vos résultats sont corrects (jusqu'aux limites attendues de la précision numérique), vous ne pouvez pas vraiment vous attendre à pouvoir expliquer toute inexactitude dans les résultats d'autres personnes. Bien sûr, vous devez absolument vous assurer que d'autres peuvent facilement reproduire vos résultats et vérifier l'exactitude des méthodes que vous avez utilisées pour les obtenir, par exemple en rendant votre logiciel disponible gratuitement.

Si vous pensez vraiment que le simple fait de documenter l'écart entre les deux ensembles de résultats serait publiable seul, le faire et ensuite citer cette publication dans votre article principal pourrait également être une option. En général, cependant, je m'attendrais à ce que cela ne soit pratique que si les valeurs quantitatives précises en litige sont réellement importantes pour les autres personnes travaillant dans votre domaine.

StrongBad
2013-02-10 19:16:09 UTC
view on stackexchange narkive permalink

Je me méfierais beaucoup de la publication et en tant que critique, je me méfierais de recommander la publication. La différence inexplicable dans les résultats laisse entrevoir une erreur. Cette erreur est la vôtre ou la leur. Je voudrais être sûr que c'est leur erreur avant de publier. Même si vous ne pouvez pas comparer les deux méthodes directement, vous pouvez toujours publier votre méthode indépendamment en montrant qu'elle donne la réponse «correcte» dans une batterie de cas de test, puis en notant qu'elle donne une réponse différente dans le cas non testable.

Vous pouvez alors vous référer à ce papier lorsque vous publiez le vrai travail. L'avantage est que cela supprime le besoin de diluer le message du vrai papier avec les détails de la méthode. Un deuxième avantage est que les auteurs originaux peuvent exécuter le testeur avec leur méthode. Cela est particulièrement vrai si vous les appelez dans un brouillon antérieur et leur envoyez une copie avant la soumission. Vous pouvez également les demander en tant que réviseurs.

Une stratégie différente pourrait être une visite en laboratoire (physique ou virtuelle) pour utiliser leur logiciel sur votre batterie de test.

Le logiciel est différent, mais la méthode est censée être la même.
* "La différence inexplicable dans les résultats fait allusion à une erreur." * Oui, c'est le cas. Mais il ne fournit aucune indication particulière sur la partie qui l'a fait. F'x ne nous a fourni aucune raison particulière pour que la publication précédente puisse être considérée comme un évangile. Une question importante ici est * "Est-ce que d'autres l'ont reproduit?" *.
Toute préoccupation selon laquelle @F'x est celui qui fait l'erreur pourrait être atténuée par F'x rendant son code accessible au public.
J'aime l'idée de leur donner la chance de faire vos tests avec leur outil. S'ils obtiennent de mauvais résultats là-bas, vous pouvez facilement qualifier les anciens résultats d'erreurs. (À condition que vos tests soient bons, bien sûr.) S'ils obtiennent de bons résultats, vous êtes de retour à la case départ.
@F'x Il est clair que le logiciel _et_ la méthode ne sont pas les mêmes. Il peut s'agir d'algorithmes différents ou de réglages / paramètres différents entre les deux codes. Je suis d'accord avec Daniel E. Shub sur le fait que j'hésiterais (en tant qu'éditeur ou critique) à accepter vos résultats sans tenter d'expliquer les écarts. Pour le meilleur ou pour le pire, leur travail est publié et le vôtre ne l'est pas donc la responsabilité vous incombe d'essayer d'expliquer les différences, ou du moins de valider votre méthode.
blackace
2013-02-10 17:31:28 UTC
view on stackexchange narkive permalink

Pouvez-vous / êtes-vous prêt à jeter un os?

Cela pourrait valoir la peine de discuter de leur participation en tant qu'auteur à l'article. Peut-être pouvez-vous conclure un accord pour obtenir ce que vous voulez (avoir accès à leurs logiciels, résultats, etc.) en échange de leur inclusion dans vos publications et d'un certain niveau de collaboration. Vous pourriez être surpris d'être honnête à ce sujet et d'en parler ouvertement pourrait fonctionner! Mes deux meilleurs articles à ce jour viennent de faire exactement cela et ensuite de développer des relations de travail avec des personnes qui n'étaient pas à venir. Après cela, nous avons publié ensemble deux articles supplémentaires. Qui sait, vous pourriez finir par collaborer et faire des choses plus grandes et meilleures ensemble si cela fonctionne. Je voudrais essayer avant de décider de simplement publier les résultats comme vous l'avez décrit.

Cela peut être un peu délicat ... Le document conjoint peut tout aussi bien ressembler à l'auteur original étendant son propre travail, avec vous en tant que co-auteur subordonné. La question que vous devez vous poser est la suivante: cela sera-t-il considéré comme mon propre travail / contribution? C'est la question que se poseront également les comités d'embauche / subvention. S'il n'est pas clair qu'il s'agit de votre propre travail, par ex. l'autre auteur est plus ancien et toujours actif dans le domaine, et / ou il / elle présentera le travail conjoint lors de conférences et de conférences, puis restera à l'écart.
@Pedro J'ai suggéré parce que "il est clair qu'ils ne veulent pas investir de temps à faire un suivi sérieux de leur côté". Je conviens que cela pourrait arriver si la relation n'est pas bien gérée et négociée. Mais le bon côté est également significatif comme je l'ai vécu. Dans mon cas, c'était avec * le * principal auteur mondial dans le domaine et oui, il en a pris un certain crédit mais m'a toujours mentionné. J'ai eu quatre articles hors de travailler avec lui jusqu'à présent (et nous allons toujours) tous dans les principaux journaux que je pourrais publier et je pense que cela avait à voir avec le fait que je publiais avec lui ...
antmw1361
2013-02-11 11:59:20 UTC
view on stackexchange narkive permalink

Toutes les publications dans les revues scientifiques doivent être reproductibles et exactes. Il est très important d'examiner les résultats des autres. Les auteurs originaux obtiennent beaucoup de crédit si un chercheur indépendant vérifie leur théorie ou leur modèle.

Presque toutes les revues ont une section intitulée Commentaire, * Lettres * ou Lettre à l'éditeur. Voici quelques liens vers ces colonnes:

Bien sûr, c'est délicat et vous devez être prudent. Si vous pensez que tout est précis dans votre code, commenter le papier est une option.

gerrit
2013-02-11 18:41:06 UTC
view on stackexchange narkive permalink

Je voudrais ajouter un point qui n’a pas encore été mentionné. Cela peut ou non être applicable à votre situation, mais cela peut être dans le cas général. Vous mentionnez que les résultats des simulations numériques ne concordent pas. Par conséquent, je suggère:

Si deux modèles ne peuvent pas être mis d'accord, il est temps de faire des mesures.

En fait, c'est une bonne idée même s'ils sont d'accord, mais si vous pouvez faire des mesures, vous pourrez confirmer qu'au moins l'un des modèles est incorrect au moins pour la situation spécifique de la mesure.

Bien sûr, ce n'est pas le cas toujours possible.

Benjamin Mako Hill
2013-02-11 07:32:13 UTC
view on stackexchange narkive permalink

Je suis d'accord avec d'autres qui ont suggéré que la publication des nouveaux résultats était OK. Mentionnez qu'il y a une différence avec l'ancienne méthode mais qu'elle n'est pas qualitativement différente.

De nombreuses revues ont pour politique de demander un commentaire / réplique à l'auteur de toute étude dont le travail contredit directement. Si les rédacteurs pensent que votre commentaire dans l'article est admissible, vous pourriez enfin obtenir la réponse que vous recherchez.

Mais je vous invite également à réfléchir sérieusement à ce que vous voulez mettre en jeu pour cela divergence et combien de temps vous voulez y consacrer. Il semble que les résultats soient qualitativement les mêmes. Si vous finissez par être correct à 100% sur tout, la contribution d'un article qui ne parle que de la différence sera une estimation légèrement meilleure. Dans certaines situations, cela peut valoir beaucoup. Dans beaucoup d'autres, cela ne compte pas beaucoup. Vous saurez à quel point c'est important pour votre domaine.

Une fois, j'ai trouvé un petit problème méthodologique dans un article lors de ma deuxième année d'études supérieures. J'ai posé une question similaire à la vôtre à un professeur qui m'a demandé si l'erreur méthodologique était susceptible de modifier le résultat ou d'invalider les principales conclusions. Quand j'ai dit que c'était très improbable, il m'a dit que ce n'était probablement pas la meilleure utilisation de mon temps pour travailler beaucoup sur une réplique.

C'est difficile. Je pense que vous devriez dire quelque chose. Une note dans le papier suffit probablement. Pour ce genre de choses, je pense qu'une note de recherche sur Arxiv que vous pouvez citer pourrait être une alternative.



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...