jeudi 28 janvier 2016

#Séralini et les #OGM : après la tragédie, la farce

Je ne comptais pas commenter sur le dernier Séralini, mais c'est devenu tellement ridicule que je ne résiste pas. Il a donc publié un "article" qui décrit la mortalité des vaches dans une ferme allemande particulière et l'attribue aux OGM sans aucun élément de preuve. Je ne vais pas dans le détail, pour une fois je vous renvoie à alerte-environnement.

Ce papier m'évoque la citation célèbre de Karl Marx :
Hegel fait remarquer quelque part que, dans l'histoire universelle, les grands faits et les grands personnages se produisent, pour ainsi dire, deux fois. Il a oublié d'ajouter : la première fois comme tragédie, la seconde comme farce.

Donc après la tragédie de 2012 (rappelez-vous, les rats torturés), voici la farce :

  • Le co-auteur de Séralini c'est le fermier qui a accusé le semencier d'être responsable de la mort de ses vaches à l'époque, et qui a été à l'époque débouté par la justice allemande.

  • Le journal est non seulement inconnu au bataillon, mais publié par un éditeur inconnu du Nigéria (il ne faut pas juger là-dessus, mais le Nigéria n'est pas connu pour sa recherche ni son édition), et contient une faute d'orthographe dans son titre : "Scholarly Journal of Agrucultural Science" (ça devrait être "agricultural").

  • L'article commence par cette phrase incroyable "Thus it was not designed as a scientific experiment". Ah bin pour une fois c'est clair. Ceci n'est pas une expérience scientifique. Ni une pipe. Ni rien.

  • Car cerise sur le gateau, le journal bidon a oublié de renouveller son domaine internet le lendemain de la conférence de presse annonçant le résultat. A pus article.


Article et résultat auquels personne ne semble porter attention, ce en quoi tout le monde a bien raison.

C'est triste un naufrage pareil quelque part.

Liens :

  • le site du journal, "This domain name expired" à l'heure où j'écris.

  • un cache webarchive, qui ne contient malheureusement pas le dernier numéro avec l'article en question.

  • une version PDF de l'article sur le site américain GMwatch. Il ne semble pas que Séralini maîtrise l'art de mettre ses publications sur son propre site web (en a-t-il un ? une recherche Google mène au CRIIGEN [oui il a un site pas à jour, voir commentaires]), ou dans un site d'archives gratuites comme biorxiv. (Remarquez l'usage du titre "professeur" jusque dans le nom du PDF ; je remarque souvent un amour des titres chez les tenants des pseudo-sciences.)

  • un commentaire amusé sur un blog scientifique anglophone.

  • la nouvelle de la disparition de l'article sur le site Retraction Watch.


Mise à jour du 2 février : le site est revenu en ligne, et un peu de contexte sur ce "journal" étrange sur le blog de Seppi.

mercredi 27 janvier 2016

Vent de folie dans les journaux scientifiques: 3- CRISPR/Cas édite l'histoire de la génomique

Allez, dernier billet dans la série (1- secte cladistes, 2- parasites de la recherche). A noter que le sujet cette fois a été couvert notemment par Le Monde (je profite de l'occasion pour saluer l'excellence du Monde sciences ces derniers temps - continuez !). Et je n'ai bêtement pas bien gardé tous les liens pertinents, donc il va manquer des trucs.

Or donc, CRISPR/Cas est la technique révolutionnaire qui permet d'éditer les génomes avec précision et puissance, facilement et pour pas cher. Et le 14 janvier, une somité de la génomique mondiale, Eric Lander, a publié :

The Heroes of CRISPR Cell 164: 18–28

Dans cet article, Eric Lander brosse l'histoire de la découverte de cette technique, en disant vouloir mettre en avant les personnes moins reconnues d'habitude. Mais, il y a quelques mais :

  • Mais parmi ces héros méconnus, que des chefs de labos, pas de doctorants ni de postdocs.

  • Mais parmi les héros très généralement connus, deux femmes, Emmanuelle Charpentier (française travaillant en Allemagne) et Jennifer Doudna (Berkeley, Californie), reçoivent nettement moins d'attention que les autres intervenants. C'est curieux, ces deux femmes sont généralement créditées de la découverte de CRISPR/Cas.

  • Mais par contre la troisième personne très connue pour CRISPR/Cas, Feng Zhang (Broad Institute, Massachusetts), a droit à un portrait étendu et flatteur.

  • Mais Eric Lander est directeur du Broad Institute, lequel est en procès avec Berkeley pour un brevet sur CRISPR/Cas, pour savoir qui de Doudna ou de Zhang a la priorité sur l'application aux cellules humaines.


Oups. Du coup, Twitter #LanderGate (depuis le Watergate, tous les scandales sont des truc-gate aux USA).

Commentaires acides de Doudna et Charpentier sur PubMed, la base de données de référence des articles en biologie et médecine (lien) disant que leur travail a été mal représenté et qu'elles n'ont pas été consultées. Plus surprenant, commentaires de George Church, qui travaille aussi au Broad avec Lander, et dit ne pas avoir été suffisamment consulté et qu'il y a de nombreuses erreurs (voir aussi ici). De nombreuses critiques notent que l'article ne signale pas le conflit d'intérêts de Lander, mais il s'avère qu'il l'a signalé au journal qui a décidé de ne pas l'afficher.

Grosse discussion sur le site PubPeer bien sûr, qui discute les articles scientifiques de manière anonyme.

Une analyse intéressante du point de la rédaction historique, qui montre bien comment Lander diminue les rôles de Doudna et Charpentier.

Deux réactions très fortes de chercheurs très connus en génomique (et tous deux connus pour leur peu d'empressement pour la diplomatie) : Michael Eisen écrit que Lander est un super-vilain fascinant, "an evil genius". De manière intéressante, une de ses conclusions c'est qu'il ne devrait pas y avoir de brevet (à noter qu'il est à Berkeley comme Doudna), et je suis assez d'accord dans ce cas-ci. Un brevet ne fera que du tort, et n'a rien à voir dans ce cas avec l'objectif affiché d'encourager l'innovation. Eisen dit aussi (et en commentaire à Cell) qu'il est contre les prix qui mettent trop en avant un petit nombre de personnes, de manière toujours injuste. Lior Pachter insiste sur la manière dont Lander efface les postdocs et doctorants de l'histoire.

Tous deux, et de nombreux autres commentateurs, ironisent sur la carte accompagnant l'article, dans laquelle le monde se réduits aux USA et à l'Europe, et où le code couleur montre bien que la seule avancée déterminante a eu lieu à Boston, lieu du Broad Institute :

[caption id="attachment_3109" align="aligncenter" width="769"]carte telle que publiée carte telle que publiée[/caption]

Exemple de tweet à ce propos :

 

Et lien rigolo tweeté suite à mon teaser plus tôt aujourd'hui :

Cet article a fait couler énormément d'encre électronique, et je n'ai pas le temps d'en faire le tour. Ceci clot donc pour le moment mon petit tour des délires des journaux scientifiques en ce début d'année 2016. :-)

Titre piqué à cet excellent tweet d'Alexis Verger :

Vent de folie dans les journaux scientifiques: 2- halte aux parasites qui osent analyser les données

Après le dogme cladiste issu du fond des ages, un nouvel épisode de "maman j'ai raté le 21ème siècle", avec l'éditorial du New England Journal of Medicine du 21 janvier. Contrairement au journal Cladistics (voir billet précédent), NEJM est très connu et reconnu, l'un des plus prestigieux de la recherche en médecine :

Dan L. Longo, M.D.*, and Jeffrey M. Drazen, M.D.* Data sharing N Engl J Med 2016; 374:276-277
* M.D. = medical doctor, parce que pour les chercheurs en médecine les titres sont souvent importants ; no comment.

Que dit l'éditorial (j'ai mis une version rapidement annotée sur Dropbox ici) ? Après avoir dit quelques mots sur la beauté théorique du partage des données, ça se gâte :
The first concern is that someone not involved in the generation and collection of the data may not understand the choices made in defining the parameters.

Les éditorialistes s'inquiètent de ce que des chercheurs n'ayant pas participé à la collecte des données ne comprennent pas les subtilités de ces données, et donc les interprètent mal. Donc ils pensent que le rapport des méthodes dans les articles, et les informations fournies avec les données, ne suffisent pas à comprendre ce qui a été fait ? C'est très inquiétant. En science, on doit rapporter les choses de manière reproductible (voir débat à propos du code scientifique).

Ca devient pire :
A second concern held by some is that a new class of research person will emerge — people who had nothing to do with the design and execution of the study but use another group’s data for their own ends, possibly stealing from the research productivity planned by the data gatherers, or even use the data to try to disprove what the original investigators had posited.

Et d'une, il risque d'émerger une classe de gens qui volent la productivité des collecteurs de données (noble occupation on le comprend). Enchanté, moi je suis prof de bioinformatique depuis 2005, et je fais ça depuis le milieu des années 1990. Margaret Dayhoff a publié le premier atlas de séquences et structures de protéines en 1965 (pas trouvé de version en ligne), et Grantham et al (conflit d'intérêts : j'ai cosigné des articles avec deux des "et al") ont découvert que différentes espèces utilisaient le code génétique universel de manière subtilement différente en analysant toutes les séquences d'ADN alors disponibles en 1980.

Et de deux, les éditorialistes ont peur que "même" de vils chercheurs utilisent les données des gentils collecteurs de données pour tenter d'invalider les hypothèses de départ. Mais c'est que ça oserait faire de la science ces vauriens ! (Bon, conflit d'intérêt, c'est ce que je fais moi, voir ici en anglais par exemple.)

On arrive à la phrase qui a le plus enflammé les réseaux sociaux des scientifiques :
There is concern among some front-line researchers that the system will be taken over by what some researchers have characterized as “research parasites.”

Ah on est des parasites ? Hop, hashtags Twitter #Iamaresearchparasite, #researchparasites et #researchparasite. Alors, là ça a réagi de partout : le storify.

Soyons justes, l'éditorial propose une solution : quand on veut analyser des données, on doit concevoir une hypothèse non évidente, contacter les auteurs de l'étude d'origine, et établir une fructueuse collaboration entre gens bien nés. Ca n'arrive en effet jamais de manière légitime que l'on veuille analyser les données de centaines d'expériences, que l'on veuille remettre en cause les analyses telles que publiées, ou que l'on veuille analyser des données publiées il y a des années par des personnes parties à la retraite ou ayant arrété de faire de la recherche. Et bien entendu ceux qui génèrent des données intéressantes ont le temps de prendre en compte et répondre de manière appropriée à toutes les demandes qui pourraient leur être faites (génome humain : plus de 18000 citations). Le bioinformaticien Claus Wilke donne sur son blog l'histoire intéressante d'un cas où il a du promettre de co-signer un papier pour avoir les données sur un soit-disant effet du jaune d'oeuf qui serait aussi mauvais pour la santé que le tabac. Ayant eu les données, il a refait l'analyse, trouvé que l'analyse de départ était faussée, et que l'hypothèse ne tenait pas. Les chercheurs en médecine concernés l'ont traité avec mépris, et il n'y a jamais eu de publication. Comme il avait signé de ne pas publier tout seul, ça en est resté là. Voilà le problème de la seule approche "collaborative" bien illustré.

Quelques autres réactions en vrac : Une traduction rigolote en anglais ordinaire. Un point de vue qui contraste cet éditorial avec les déclarations du vice-président américain sur le partage de données pour combattre le cancer. Puis un point de vue d'écologie (la science) discutant comme le partage des données peut en effet être difficile. Et une interprétation de cet éditorial comme le dernier des dinosaures mourants de l'ancienne façon de faire de la recherche bio-médicale.

Et puis c'est pas comme si ce journal avait un problème de reproducibilité des résultats, par exemple s'il avait un taux élevé d'articles rétractés :

[caption id="attachment_3107" align="aligncenter" width="494"]corrélation entre facteur d'impact et taux de rétraction, avec flèche vers le journal que dont il est question ici corrélation entre facteur d'impact et indice de rétraction, avec flèche vers le journal que dont il est question ici[/caption]

Bon 4 jours plus tard ils ont publié un correctif (ce qui montre une fois de plus l'impact des médias sociaux sur la façon de fonctionner de la science, y compris ceux qui se croient à l'abri en haut de la tour d'ivoire). Ils disent qu'ils sont gentils, parce qu'ils ont signé des accords de diffusion des données. D'ailleurs même s'ils trouvent que c'est de mauvais goût, ils vont les respecter. Mais ils réitèrent que c'est légitime de considérer ceux qui analysent les données avec suspicion pour le moins. Et dans un article dans Forbes, l'auteur principal de l'éditorial a refusé de condamner le terme "parasites". Comme dit sur le blog de Mick Watson, ce n'est pas encore des excuses, et c'est insuffisant.

Finalement le mieux qui soit sorti de tout ceci sont les dessins de RedPenBlackPen, qui dessine sur la science :



Vent de folie dans les journaux scientifiques: 1- la secte du Cladisme

Il y a eu récemment plusieurs éditoriaux ou billets d'opinion qui ont eu un certain, euh, écho sur les médias sociaux. Ils diffèrent par bien des points, mais ont en commun un certain aspect "what the fuck?" comme disent élégamment les américains.

Commençons par l'éditorial du journal Cladistics du 12 janvier (lien).  Je l'ai vu via ce tweet :

L'éditorial commence direct :
The epistemological paradigm of this journal is parsimony. There are strong philosophical arguments in support of parsimony versus other methods of phylogenetic inference (e.g. Farris, 1983).

Alors un peu de contexte. Il existe différentes méthodes pour reconstruire des arbres phylogénétiques, à savoir les relations évolutives entre espèces. Jusque dans les années 1960-70 la classification des espèces se faisait de manière très approximative, sans méthode formelle. Dans les années 1970 est apparu un mouvement appelé "cladistique", qui visait à réformer la classification des espèces en la rendant objective, suite à un livre de Willi Hennig (1966 pour l'édition anglaise). Les cladistes proposaient un critère de classification, les relations phylogénétiques. Et comme il n'existait pas de méthode objective pour reconstruire ces relations, et l'objectivité était leur objectif, ils ont aussi proposé une méthode formelle (programmable informatiquement même), dite de "parcimonie" (orthographe discutée ici ;) ). Jusque là tout va bien. Mais dès la fin des années 1970 (1978 pour être précis) Joe Felsenstein a montré que dans certains cas identifiables la parcimonie pouvait se tromper de phylogénie de manière systématique. Ce sont ensuivies deux décénnies de débats entre d'un coté des bio-statisticiens (école dont je suis issu) qui cherchaient les limites des méthodes de phylogénie et les améliorations à y apporter, et de l'autre le groupe proclamant que seul l'usage de la parcimonie fait le vrai "cladiste", pour la plupart issues de musées d'histoire naturelle. Durant ma thèse cette dispute était encore vive, et je me rappelle de discours très agressifs de Guillaume Lecointre fustigeant les fausses phylogénies des statisticiens.

Depuis la plupart des phylogénéticiens sont passés du coté statistique de la force, notamment parce que l'amélioration conjointe des ordinateurs et du séquençage d'ADN fait que nous avons des données bien adaptées au traitement statistique. Et puis quand même une méthode dont on peut montrer qu'elle est juste a quelque chose de préférable à une méthode qu'on aime bien pour des raisons historiques (voir aussi débat dans ce billet).

Et donc l'éditorial de Cladistics, journal de la Hennig society, nous renvoie en arrière vers cette époque, et sans aucune nuance ni aucune leçon apprise. Il commence par dire que ce journal, c'est parcimonie et c'est tout. Il continue dans cette veine :
(...) we do not hold in special esteem any method solely because it is novel or purportedly sophisticated. Phylogenetic data sets submitted to this journal should be analysed using parsimony. If alternative methods are also used and there is no difference among the results, the author should defer to the principles of the Society and present the tree obtained by parsimony.

J'adore "because it is novel or purpotedly sophisticated". Les éditeurs ne se laissent pas impressioner par une méthode juste parce qu'elle est nouvelle (plus récente que 1966) ou soit disant sophistiquée. Ca fait pas du tout vieux barbons.

Plus loin :
we do not consider the hypothetical problem of statistical inconsistency to constitute a philosophical argument for the rejection of parsimony

Les problèmes connus et documentés à répétition depuis 1978 ne les embêtent pas, puisqu'il ne s'agit pas d'un argument philosophique. Bin tiens. Une méthode d'estimation de phylogénie estime la mauvaise phylogénie, mais puisqu'elle est théologiquement philosophiquement pure, gardons-la.

Et une phrase qui a fait se gratter bien des têtes en biologie évolutive :
The absence of certain truth represents a philosophical limit of empirical science.

Euh... oui on ne sait pas toujours tout, mais est-ce une justification pour accepter des méthodes qui se plantent ?

Bref, cet édito a fait rire tout ce qu'internet a de biologistes évolutifs, avec un storify des tweets ici :

https://storify.com/phylogenomics/cladistics-journal-declares-long-live-parsimony

Il faut préciser que perso, faisant de la biologie évolutive, je n'ai plus rencontré ce genre d'attitudes depuis une vingtaine d'années, ce qui tend à indiquer que bien que des gens comme ça existent toujours, ils fréquentent peu les conférences habituelles de biologie évolutive. Je pense qu'ils vont entre eux à la conférence de la Hennig Society (voir à ce propos un compte-rendu rigolo de Dan Graur d'une de ces conférences ainsi que la discussion dans les commentaires).

Que penser de tout ceci ? Que le dogmatisme peut exister dans des sous-cultures de la communauté scientifique ; que ce dogmatisme est battu en brêche dans la communauté scientifique globale ; et qu'internet fait que ce genre d'attitudes s'attire le ridicule généralisé.

A bientôt pour une deuxième histoire d'éditorial étrange. Soyez sages.