vendredi 28 décembre 2012

Redif : A qui est ce génome dans la vitrine ?

Pendant les fêtes, je vais faire quelques rediffusions de billets de mon ancien blog sur blogspot. Voici la deuxième redif. Billet original ici.






cliquez sur l'image



Un papier récent rapporte le premier génome d'un aborigène d'Australie. Les résultats sont intéressants, et indiquent que les aborigènes sont partis d'Afrique il y a environ 62'000 à 75'000 années, sont donc bien le groupe humain qui est depuis le plus longtemps hors d'Afrique, et aussi qu'ils se sont mélangés  aux denisoviens en chemin.

Mais ça n'est pas de cela que je veux parler aujourd'hui.

L'ADN a été séquencé à partir d'un échantillon de cheveu préservé dans un musée, collecté sur un aborigène dans les années 1920. L’université de Copenhague, qui coordonne le projet, a considéré qu'il s'agit d'un échantillon archéologique et non biologique, et donc non soumis à autorisation du comité d’éthique. Mais un collègue australien, ayant vent du projet, a signalé aux danois que les aborigènes sont très sensibles à l'exploitation de leur patrimoine génétique, et qu'il fallait faire attention. Les chercheurs danois ont donc identifie la région d’où venait probablement le donateur, et ont demandé et obtenu l'autorisation du comité tribal représentant les aborigènes de la région. Ils ont déclaré que si le comité tribal avait dit non, ils auraient arrêté la publication du génome. Certains australiens trouvent qu'ils ne sont pas allés assez loin, dans la mesure où l'information dans ce génome engage tous les aborigènes. Histoire complète en anglais et probablement d’accès payant, sur le site de Nature.

Ceci a donne lieu à un débat anime sur des blogs de scientifiques :

Razib Khan (Discover magazine) est outragé que les auteurs du papier aient demandé au conseil tribal. Et d'une, il ne voit aucune légitimité au concept de tribu, et considère que seuls les individus existent. Et de deux, il ne pense pas qu'il faille en général demander l'autorisation de qui que ce soit avant de rendre public un génome, sauf de l'individu concerne (s'il est vivant). Dans un cas extrême, il pense que c'est OK pour un individu d'une paire de jumeaux de rendre public son génome sans demander l'autorisation à l'autre jumeau, qui partage exactement le même génome (on suppose que ce sont de vrais jumeaux), à quelques erreurs de copie près.

Il note deux points à ce propos. Un, qu'avec le progrès des technologies, de toutes façons tout ce qui peut être séquencé le sera. Il suffit d'un donneur, un échantillon, ou même un ensemble de blancs avec une partie de leur généalogie aborigène. Deux, qu'avec l’état actuel de notre connaissance du génome, une séquence ne dit somme toute pas grand chose sur un individu. Je trouve ce point très dangereux, parce qu'une fois qu'une séquence est publique, elle le reste, tandis que notre pouvoir prédictif base sur ce génome augmente. Si vous rendez votre génome public aujourd'hui, on ne peut pas dire grand chose sur vous. Mais dans 2 ans ou 5 ans ou 10 ans, on pourra peut-être (probablement) en dire beaucoup plus.

Rasmus Nielsen (célèbre biologiste de l’évolution et co-auteur du papier original) défend l'approche prise en considérant d'une part qu'il y a un biais culturel, Razib ayant un point de vue individualiste typiquement américain (il ne dit pas quel est le point de vue alternatif ; communautaire européen ?). Il pense fortement que dans la mesure où il y a une longue histoire négative des interactions entre scientifiques européens et peuples non européens objets d’étude (vous avez vu, j'ai réussi à éviter d’écrire "indigènes" !), il faut faire particulièrement attention. Et dans la mesure où dans ce cas particulier l’individu ni ses descendants ne pouvaient être identifies, le conseil tribal était la meilleure autorité avec laquelle discuter. Rasmus est d'accord avec Razib sur le fait que la séquence serait éventuellement disponible, mais ne voit pas cela comme une raison de ne pas essayer de faire au mieux aujourd'hui. Je suis totalement d'accord. D'autant que reconstruire la confiance entre scientifiques et non scientifiques me parait un objectif majeur.

Cela laisse ouverte la question : si un aborigène individuel avait donne son ADN et son consentement, le conseil tribal aurait-il été consulté ? L'information obtenue aurait été sensiblement la même. Question proche de celle posée par les chercheurs et militants australiens, qui trouvent qu'une consultation plus large des aborigènes aurait du être menée.

De manière intéressante, Razib reconnait le problème de déshumanisation passée, et fait remarquer que lorsque l'on a découvert que l'ADN des européens montre un mélange passé avec les néandertaliens, cela n'a pas posé de problèmes, car il n'y a pas d'histoire récente de déshumanisation des européens. Mais pour lui c'est un argument pour traiter les aborigènes de la même manière que les européens. En quelque sorte, il a une vision a-historique des individus, ce qui est cohérent quelque part avec sa vision a-communautaire (ça me rappelle une blague suisse : dans l’appellation Suisse alémanique, le "a" est privatif).

Larry Moran sur Sandwalk (prof de biochimie cité dans le billet sur l'oignon) rebondit sur l'exemple des jumeaux, fortement en desaccord. Il pense qu'il faut demander à toute sa famille proche avant de rendre public son génome. Vos frères, soeurs, parents et enfants ont 50% de chances de partager une mutation que vous portez en simple copie (1 chromosome sur 2), et sont surs de porter au moins en simple copie une mutation que vous portez en double copie (les 2 chromosomes, on dit aussi homozygote). Razib a répondu en mettant cela dans un cadre très légaliste : il pense que l'approche de Larry et Rasmus implique de légiférer, et cela, en défenseur acharné des droits individuels, il est contre. Mais il me semble justifié de légiférer dès lors que l'exercice de la liberté des uns empiète sur la liberté des autres. Si je publie mon génome, cela implique effectivement des conséquences potentielles graves pour ma famille proche, et leur avis devrait être pris (certains de mes lecteurs seront rassurés de lire cela). Si je suis trop asocial pour comprendre cela, la communauté, via le législateur, me semble justifiée à intervenir.

La où je suis moins positif, c'est sur le rôle du conseil tribal. Je suis d'accord avec Rasmus et les autres auteurs que dans ce cas-ci c’était une bonne approche. Mais je suis d'accord avec Razib et d'autres qu'il faut se méfier de donner trop de pouvoir à de telles structures. Si un savoyard publie son génome, faut-il demander au conseil général de Savoie ? Qu'en pensent la Haute-Savoie et le Val d'Aoste ? Exemple rigolo, mais s'il s'agit d'un basque les enjeux politiques et culturels deviennent réels. A discuter pour la prochaine fois.

vendredi 21 décembre 2012

Redif : Il faut fumer en sautant sans parachute, ou la difficulté d'être objectif

Pendant les fêtes, je vais faire quelques rediffusions de billets de mon ancien blog sur blogspot. Voici la première redif. Billet original ici.









Cliquez sur l'image

Vous avez peut-être entendu parler dans les médias d'un papier scientifique qui se proposait de montrer que de fumer des cigarettes est bon pour les coureurs de fond. Dans le Canadian Medical Association Journal, classé 9ème parmi les journaux médicaux au niveau mondial.

L'auteur fait une revue de la littérature scientifique, et trouve qu'il a été établi que :

  • La consommation de tabac a été associée avec des niveaux élevés d'hémoglobine : de fumer au moins 10 cigarettes par jour est associé à une augmentation de 3,5% d'hémoglobine. Contrairement à un séjour en altitude, l'effet est durable ; et contrairement au dopage, c'est légal. L'effet semble même augmenter avec l'âge, les personnes âgées ayant fumé ayant des taux d'hémoglobine encore d'avantage élevés par rapport à la moyenne. De plus l'effet du tabac semble augmenté par "une thérapie complémentaire d'éthanol", à savoir la consommation d'alcool. (Tous ces résultats viennent d'une même référence sérieuse.)

  • Les fumeurs ont 50% de chances d'attraper une maladie chronique qui résulte en une augmentation du volume pulmonaires. Qui c'est d'autre qui a des gros poumons ? Les sportifs endurants. CQFD.

  • Les coureurs de fond bénéficient d'un poids plus faible. Qu'est-ce qui diminue l'appétit ? Le tabac. Qu'est-ce qui l'augmente ? L'exercice. Faites les maths.


L'auteur termine en discutant que les effets du tabac sont surtout visibles sur le long terme, or il existe des législations contraignantes rendant plus difficile l'accès au tabac pour les enfants dans la plupart des pays développés. Ces obstacles sont moins présent dans les pays pauvres qui justement gagnent souvent les sports d'endurance. Coïncidence ? Une étude sur le tabagisme enfantin chez les sportifs africains reste à faire.
Il s'agit bien entendu d'un exercice parodique, mais avec un fond sérieux. Il s'agit de montrer comment un choix biaisé des sources, et la mise en relation de faits établis mais qui ne sont pertinents, permet de faire dire à la littérature scientifique ce qu'elle ne dit pas. Ce qui peut être très dangereux quand on commence à s'intéresser aux effets des médicaments, à la pollution, à la chasse des espèces rares, etc. Dans ces cas, ça ne sera pas toujours une parodie, et les erreurs seront moins évidentes, surtout pour les lecteurs qui ne demandent qu'à être convaincus.
D'abord un autre exemple : Un article dans le British Medical Journal (à ce propos : cherche exemples d'humour scientifique intelligent d'origine francophone. Hmm. [Benveniste ne compte pas, c'était involontaire]) pose une question tout-à-fait pertinente : où sont les études randomisées double-aveugle sur l'usage du parachute pour prévenir les traumatismes et décès liés aux défis gravitationnels ? En effet on ne devrait jamais prescrire un traitement préventif sans de telles études, en médecine moderne (dite en anglais "evidence-based"). Il existe une évidence anectodique de personnes ayant tombé de haut sans parachute et ayant survécu. En moyenne on voit a posteriori que les personnes ayant sauté avec parachute ont survécu plus souvent et en meilleur état que celles ayant sauté sans parachute. Mais il y a un biais : les personnes qui sautent de haut sans parachute sont souvent en mauvaise santé (au moins psychologique) avant le saut, alors que les personnes qui sautent de haut avec parachute sont souvent en bonne santé. Donc il manque bien une étude sérieuse, randomisée, c'est-à-dire que les personnes sont distribuées au hasard entre les groupes de traitement (ici, avec ou sans parachute). Exercice à faire à la maison pour la prochaine fois : justifier rationnellement pourquoi ne pas faire d'étude randomisée ici, mais en faire pour l'acuponcture, l'homéopathie et le nouveau médicament de Servier.
Plus sérieusement, ces articles attirent l'attention sur des problèmes qui peuvent se poser dans la recherche scientifique (pourquoi scientifique ? dans la recherche en général). Par exemple, un article de International Journal of Obesity discute le bais White hat bias (pour lequel je n'ai pas trouvé de traduction en français - même les hacker White Hat restent en anglais sur le wikipedia francophone). Cela consiste à sélectivement choisir les information, ou les interpréter de manière biaisée, en raison de bonnes intentions. Exemples donnés dans le papier:

  • Deux papiers ont été publiés qui rapportent certains résultats significatifs, et d'autres non significatifs, sur la relation entre obésité et d'autres facteurs (mode de vie etc.). Parmi les articles citant ces études, plus des deux tiers les citent comme soutenant sans réserve ces relations, pourtant mal établies.

  • Les articles financés par l'industrie trouvent des effets moins négatifs de l'alimentation sur l'obésité, que ceux financés par le public. Il semble que cela soit du aux chercheurs publics ne publiant que des résultats très significatifs, alors que ceux financés par l'industrie publient aussi les études peu significatives.

  • De même, pour les études sur les effets de l'allaitement maternel, les études plus significatives sont d'avantage publiées. Dans ce cas, il n'y a apparemment aucun effet industriel, ou autre biais évident.

  • Des rapports supposément basés sur la recherche (par exemple Organisation mondiale de la santé) citent de manière biaisée les parties des articles qui soutiennent leur conclusion globale.


Ce qui est important dans ces exemples, c'est que les biais sont de bonne foi : les personnes veulent améliorer la santé ou l'information du public. Mais manquent de rigueur, là où la rigueur serait apparemment contradictoire avec leurs objectifs. C'est privilégier le court terme (tout-de-suite dire que les aliments gras c'est vil) sur le long terme (la crédibilité de la recherche, et notre meilleure connaissance du monde), à mon avis.

Tout ceci n'est pas sans rappeler les IgNobel : des résultats qui nous font rire, puis nous font réfléchir. Une excellente combinaison somme toute.

lundi 17 décembre 2012

Références françaises dans les articles scientifiques

[caption id="attachment_697" align="aligncenter" width="188"]cliquez sur l'image cliquez sur l'image[/caption]

Il y a quelques mois j'avais eu des échanges Twitter sur la référence litéraire la plus fréquente dans les titres d'articles. Ca avait démarré parce que je devais expertiser un nième article avec "of mice and men" dans le titre. Une recherche rapide montrait que Frankenstein était nettement plus fréquent que "of mice and men", mais le gagnant était "A tale of two...", suggéré par Richard Sever ‏(@cshperspectives). Autres concurents malheureux, "to be or not to be" et "Ecce homo", et bien sûr "the Red Queen". Vous pouvez jouer vous-mêmes en utilisant dans Google Scholar la syntaxe :

intitle:"phrase a tester"

Du coup, je me suis demandé quelles étaient les références francophones les plus fréquentes dans les titres d'articles scientifiques. Alors là on ne va plus demander de la litérature, juste un mot français, OK ? Je précise que Google Scholar ne référence pas que les articles scientifiques, mais tout se qui est formaté comme tel, donc inclus des humanités. J'ai donc ajouté une recherche dans PubMed, qui indexe les articles de biologie et médecine (parfois au sens large).

Donc voici le tableau d'expressions françaises trouvées dans les titres d'articles indexés par Google scholar, ordonné par nombre d'occurences dans PubMed :














































































expressionGoogle Scholar titrePubMed titre+résumé
déjà vu872500
laissez-faire1110158
milieu intérieur1592
avant-garde510079
Ancien régime29143
bricolage53028
fait accompli8324
idée fixe166
j'accuse1003
c'est la vie262
je ne sais quoi301
coup de grâce150
enfant terrible1060
plus ça change3270

Etant donné que "déjà vu" est une expression passée en anglais courant, et que laissez-faire est utilisé dans un sens de système économique (ultra-libéral au sens européen), le premier terme français en recherche biomédicale semble être "milieu intérieur", merci Claude Bernard. J'aurais parié sur bricolage, mais je dois être biaisé par son utilisation en biologie évolutive. En dehors du biomédical, probablement en humanités, on remarque une forte influence des termes français "avant-garde" et "ancien régime".

Des idées d'expressions litéraires anglophones ou d'expressions francophones que j'aurais oublié d'évaluer ? Avez-vous un meilleur champion que A tale of two..., milieu intérieur ou avant garde ?

vendredi 7 décembre 2012

Accepte ton destin : le geek est fort en toi

[caption id="attachment_672" align="aligncenter" width="300"] cliquez sur l'image[/caption]

Dans la carrière d'un chercheur interdisciplinaire, il arrive souvent un moment où il faut accepter que l'on a passé une limite invisible, que l'on est autre que ce que l'on pensait devenir quand on a commencé ses études.

Peut-être avez-vous étudié la physique, et le temps est-il venu d'accepter que depuis le temps que vous publiez en génétique médicale, que vous êtes titulaire dans un département de génétique d'un hôpital, et que vous êtes invité à des conférences de génétique (mais pas de physique), eh bien il faut arrêter de vous présenter comme "physicien" dans les soirées mondaines. Peut-être êtes vous biologiste de formation, mais vous avez passé votre thèse à améliorer les méthodes statistiques, toutes vos publications concernent des nouveaux packages R, et maintenant on vous offre un emploi de biostatisticien, tout en continuant à faire des plans sur la comète concernant vos futurs "vrais papiers" de biologie. Peut-être êtes vous chimiste mais maintenant vous avez plus à dire sur les gènes impliqués dans les tumeurs que sur les progrès de la catalyse, et vous râlez aussi bien qu'un vrai biologiste sur la difficulté de travailler avec les médecins. Peut-être avez-vous passé la dernière année à optimiser des requêtes de base de données, peut-être vous contacte-t-on pour coordonner des développements d'ontologies, et pourtant vous avez toujours ce papier de biologie de votre thèse à finir.

(Toute ressemblance entre les cas ci-dessus et des connaissances à moi est le fruit de mon manque d'imagination et de ma paresse.)

Peut-être comme moi avez-vous passé des années à vous vexer quand on vous présentait à un nouveau collègue comme "le bioinformaticien", me défendant de bonne foi : mais non, je suis biologiste évolutif ; l'informatique et les statistiques sont des outils. Mais il a bien fallu admettre que le plus gros projet de mon groupe est une base de données, que j'ai participé à des jurys de thèse en informatique (moins quand même qu'en biologie), et que je suis chez moi dans des conférences de bioinformatique.

Est-ce grave docteur ? Si vous avez attaché votre identité personnelle à une communauté scientifique étroitement définie, oui (riez pas, j'en connais). Sinon, non, je ne pense pas.

Comme je l'ai expliqué dans un autre billet, je ne pense pas que les divisions entre les disciplines aient un sens profond. En fait, je ne suis même pas convaincu qu'une question telle que "qu'est-ce que le vivant ?" (ou sa variante la plus courante, "les virus sont-ils vivants ?") ait un sens intéressant. Nous cherchons à comprendre le monde autour de nous. Pour ce faire, nous devons le diviser en unités gérables par notre petit cerveau, nous devons apprendre un ensemble d'outils et de méthodes et maîtriser une certaine connaissance de base du domaine. Comme nous sommes limités dans l'espace et le temps, nos connaissances sont forcément aussi limitées. Mais elles peuvent évoluer avec le temps. Alors à un moment donné on va appartenir à une communauté donnée, constituée de collègues qui s'intéressent à peu près aux mêmes questions, utilisent plus ou moins les mêmes outils, et partagent un certain baggage commun de connaissances de base.

Parlant de connaissances de base, les débuts d'un domaine interdisciplinaire ça peut ne pas être triste. Aux débuts de la bioinformatique, ça ne manquait pas d'informaticiens qui ne savaient pas que le code génétique est basé sur des codons de 3 nucléotides, et je suis sur que la naïveté informatique des biologistes les faisait rire tout autant.

Alors quand une nouvelle opportunité s'offre à vous, faut-il demander "est-ce que ça correspond à mon engagement dans la systématique des escargots précambriens ?", ou faut-il demander "est-ce un projet intéressant ? suis-je bien placé pour le conduire au mieux ? vais-je apprendre des choses nouvelles qui m'intéressent ?". Je vote pour la deuxième réponse, et pas seulement parce qu'il n'y avait pas d'escargots au précambrien.

Et je vais donner mon avis (parce que c'est mon blog, na) sur le point le plus critique : dans tout travail y a des aspects ennuyeux ; normalement ils prennent le plus gros de votre temps, ou en tous cas c'est l'impression que ça donne : pipeter de l'eau dans des tubes, entretenir les cages des souris, débugger le code, vérifier les calculs, compter les bestioles sous le microscope, calibrer la colonne, etc. Alors la question à se poser est : est-ce que j'aime suffisamment ces détails ennuyeux, est-ce que je suis suffisamment motivé par le résultat final potentiel, pour que ça soit en fait un plaisir pour moi ? Corolaire, est-ce que je veux comme collègues des gens que ces mêmes détails passionnent ?

Maintenant que vous avez défini et accepté votre geek profond, l'aventure peut commencer.

mercredi 21 novembre 2012

Signes que je suis vieux

[caption id="attachment_318" align="aligncenter" width="170"] cliquez sur l'image - je me rappelle des grunge sur le campus, hélas[/caption]

  • J'ai codé un parseur GenBank en C.

  • Hotmail, ça a été nouveau, branché, et n'appartenant pas à Microsoft.

  • Les gènes Hox, j'en ai entendu parler pour la première fois en projet biblio de 4ème année de fac.

  • Pour lire et écrire des emails, on tapait "mail" dans Unix.

  • Quand j'ai eu un disque dur de 500 Mo, je me suis demandé comment je le remplirait jamais.

  • Les fichiers contenant la séquence du génome de la mouche Drosophile ne pouvaient pas être décompressés sur un PC : au-delà de la taille de fichiers autorisée.

  • Heureusement qu'on avait des ordinateurs Sun.

  • J'ai contribué à des forums Usenet (qui n'appartenaient pas à Google, et auxquels on accédait par son client mail).

lundi 19 novembre 2012

M. Pierre-Henri Gouyon m'insulte et insulte mes collègues (#OGM #Seralini)

Je viens de découvrir un texte écrit par Pierre-Henri Gouyon sur le site Mediapart :

http://blogs.mediapart.fr/blog/pierre-henri-gouyon/191112/qui-seme-le-doute-recolte

Comme je ne vois pas le moyen de mettre de commentaire sur ce site sans payer d'abonnement, je vais répondre rapidement ici.

M. Gouyon, vous m'insultez.

Vous dites dans votre lettre que la communauté scientifique n'a réagi que parce que des scientifiques à la solde des entreprises ont fait de la propagande :
Ce qui s’est passé depuis quelques semaines, c’est simplement que les entreprises de biotech ont commissionné des scientifiques « amis », prêts à tout, pour démarrer l’attaque. Ceux-ci ont lancé des réactions tous azimut et ont fini par atteindre leurs collègues peu au fait des pratiques de ces organes de propagande, ou plus simplement naïfs quant aux fondements et au contexte du débat, ou parfois aussi intéressés à ce que les entreprises de biotechs, qui sont une source de financement importante des laboratoires n’aient pas d’ennuis

C'est un mensonge, et soit vous le savez, soit vous avez perdu le contact avec la réalité. Sur les blogs scientifiques, tenus par des passionés sans aucun contact avec les biotechnologies (voir liste à la fin de ce billet), nous avons été nombreux à noter les problèmes majeurs de cette étude. A nouveau, je connais plusieurs des auteurs, et moi-même je blogue sous mon vrai nom (me voici), et aucun lien avec la biotechno. Mais une passion pour la science honnête.

Et la raison pour laquelle cette étude a été si commentée, oserais-je vous la révéler ? Les auteurs de cette étude ont fait une pub énorme, comme on n'en voit presque jamais. Alors quand tout le monde parle d'une étude, et qu'elle est nulle, eh bin oui on dit qu'elle est nulle. Incroyable, non ? Il faut faire quoi ? Se taire quand les médias sont plein de pseudo-science ?

Je reviens sur mon titre. M. Gouyon, en écrivant que les réactions à l'article de Séralini et al sont dues essentiellement à la vénalité des chercheurs et à l'argent des biotechnologies, vous nous insultez tous. Vous insultez aussi les collègues dont vous dites qu'ils auraient signé l'une ou l'autre pétition, la première qu'ils auraient vu. Sérieux ? Vous pensez ça de vos collègues scientifiques ?

Excusez-vous et taisez-vous, ou apportez des preuves. Dans mon cas, vous aurez du mal, je vous préviens.

---

PS: le livre Merchants of Doubt date de 2010, c'est un de mes livres préférés, et ça me fait mal de voir cet excellent travail de recherche sur la sociologie et l'histoire de la science si mal utilisé. Ce billet a été écrit très vite, mais il faudra que je vous fasse une liste des différences entre les cas amiante, tabac, etc, et celui-ci.

vendredi 16 novembre 2012

Broyons la phalange préhistorique de Denisova et séquençons tout cet ADN

[caption id="attachment_609" align="aligncenter" width="198"] cliquez sur l'image[/caption]

En 1858, Darwin qui préparait un gros livre sur la sélection naturelle reçut un manuscrit d'un jeune et prometteur naturaliste, Alfred Wallace. Lequel avait également découvert la sélection naturelle (mais moins bien démontrée et détaillée, c'est une autre histoire). Du coup Darwin s'est dépéché de publier un "résumé", ce que l'on connaît aujourd'hui comme "L'origine des espèces".

Tout ça pour dire que je préparais à pas de sénateur un billet sur les nouveaux résultats concernant le génome de Dénisova quand, paf, le blog Science étonnante publie un excellent billet sur le sujet.

Voyons quand même ce que j'ai encore à dire.

Rappelons donc que les hominidés de Denisova sont une espèce d'hominidés (comme Homo sapiens - vous et moi - ou Homo neanderthalensis) connus par à peine quelques maigres morceaux d'os et de dent découverts en Sibérie. Il y a plein d'éléments intéressants dans cette histoire, et l'un d'entre eux c'est qu'on a découvert cette espèce en séquençant ses restes d'ADN. En effet, les restes d'os sont trop fragmentaires pour permettre de les distinguer de sapiens ou Néandertal.

En 2010, les super-duper-généticiens de l'ancien ADN du groupe de Svante Pääbo ont extrait de l'ADN de phalange, et en ont séquencé assez pour démontrer qu'il s'agissait d'une nouvelle espèce, plus proche de Néandertal que de nous, mais très loin de Néandertal quand même. En octobre de cette année, ils ont séquencé un génome de haute qualité de Denisova. Comment ont-ils fait cela ? Normalement, les restes d'hominidés anciens contiennent beaucoup plus d'ADN moderne (contaminant) que d'ADN ancien. Mais un morceau de la phalange de Denisova contenait ~70% d'ADN ancien ("endogène"). Les chercheurs ont mis au point une nouvelle méthode d'amplification de cet ADN, nettement plus efficace que les méthodes précédentes. En bref, l'ADN double brin (la double hélice, ça vous dit quelque chose ?) est séparé en ses deux brins, qui sont chacun lié à une bille, ce qui permet ensuite une réaction chimique plus efficace dans un petit volume ; on copie ensuite l'ADN simple brin en double brin, et voilà, on a doublé l'ADN. On rince et on recommence. Le protocole ne nécessite pas de purification de l'ADN au départ, ce qui permet de perdre moins de matériel.

Comme dit dans Science étonante, ceci leur a permis de dater à-peu-près la divergence humain moderne - Denisovien. Pour cela, ils ont compté les différences dans l'ADN entre humain et chimpanzé, qui divergent depuis environ 6,5 millions d'années, entre Denisovien et chimpanzé, et entre humain et Denisovien. La divergence Denisovien - chimpanzé a commencé en même temps que la divergence vous-et-moi - chimpanzé, mais a duré légèrement moins longtemps : 6,5 millions d'années moins l'age de la phalange. Si on suppose que les mutations s'accumulent régulièrement au cours du temps dans l'ADN, alors on peut calculer l'age de la phalange à partir de l'ADN :

(Homo sapiens - chimpanzé) - (Denisova - chimpanzé) = age de Denisova

Ils calculent donc un âge de 74'000 à 82'000 ans, ce qui est apparemment en accord avec l'archéologie, bien qu'ils mettent en garde contre les erreurs possibles (taux de mutation variable ou mal estimé). Et le commentaire dans Science dit que les échantillons étaient datés à 30'000-50'000 ans, ce qui n'est pas tout-à-fait la même chose. A suivre quand on aura plus de génomes anciens de bonne qualité comme celui-ci.

Comme expliqué chez Science étonante, la comparaison Dénisova - néandertal - humains modernes leur permet de raffiner l'esimation du taux de gènes humains venant de néandertal : même si européens et asiatiques ont tous deux des ancêtres qui ont fait crac crac avec les néandertals, le taux de variants géniques (allèles) néandertal est 24% plus élevé chez les asiatiques.

Les auteurs ont par ailleurs cherché des morceaux de gènes (codant pour des protéines) qui soient invariants ou presque chez tous les primates y compris Denisova, mais différents chez les humains modernes. Parmi les 23 positions les plus significatives, 8 sont dans des gènes associés au cerveau. Ce qui est cool mais je trouve qu'il manque un peu de contrôles dans cette partie. Combien on en attend au hasard, connaissant la conservation moyenne de ces gènes, la vitesse d'évolution des génomes en question, etc ? J'ai l'impression qu'ils veulent absolument lier à notre super méga intelligence, au risque de rapporter des faux positifs. Ce qui ne veut pas dire que je suis convaincu qu'ils aient tort, mais je ne suis pas persuadé qu'ils aient démontré que ces gènes étaient réellement pertinents à l'évolution humaine.

Je voudrais maintenant aborder un point un peu différent.

En visitant des grottes préhistoriques ornées, on a souvent des histoires d'horreur de la manière dont ces restes très rares et fragiles ont été abimés (Lascaux bien sûr) voire détruits (Arcy-sur-Cure), sans mauvaises intentions mais avec moins de connaissances que l'on n'en a aujourd'hui. C'est facile de se scandaliser de ce qu'on fait des gens qui ne savaient pas mieux dans le passé. Mais du coup je suis mal-à-l'aise avec le fait de détruire pour toujours des restes d'ossements eux aussi très rares et fragiles, pour pouvoir séquencer l'ADN avec nos techniques imparfaites et en constante amélioration d'aujourd'hui. Et si dans 2 ou 5 ans on avait une technique permettant d'extraire et séquencer une seule molécule d'ADN sans abimer l'os ? Est-ce que dans 2 générations nos descendants ne vont pas nous maudir d'avoir laissé détruire ces restes pour obtenir des données partielles avec des techniques immatures ?

Alors j'ai vérifié, dans les papiers de 2010 et 2012 ils ont utilisé toute la portion interne de l'échantillon de phalange, soit 40 mg d'os. C'est pas des tonnes je vous l'acccorde. La répartition de cet os entre les contrôles, l'étude de 2010 ("draft genome") et celle de 2012 ("this work") est ci-dessous. Ca paraît raisonnable mais je reste mal-à-l'aise.

[caption id="attachment_618" align="aligncenter" width="862"] Figure en annexe du papier Denisovien 2012[/caption]

En conclusion, un magnifique exploit technique, de très intéressantes conclusions concernant l'évolution humaine, et un petit doute voire un regret de ma part sur notre capacité à détruire ce qui a résisté si longtemps.

 

lundi 29 octobre 2012

Semaine du c@fé de la mort

[caption id="attachment_601" align="aligncenter" width="182"] Le dessin de la mort, cliquez donc.[/caption]

Cette semaine, il n'y aura pas de matériel neuf sur ce blog, mais le C@fé des sciences fait une semaine thématique sur le thème de la mort. Y compris un billet publié en septembre sur ce blog, sur la mort des gènes.

Lisez-y, y a plein de bon, des nouveaux articles chaque jour : Thema mort sur C@fé des sciences.

 

mardi 23 octobre 2012

Critique de deux articles pro-#OGM qu'on m'a signalés

[caption id="attachment_587" align="aligncenter" width="404"] cliquez sur l'image[/caption]

Dans mon dernier billet j'ai répété un "chiche" que j'avais précédemment mis sur Twitter :
chiche, envoyez-moi un lien vers une étude #OGM aussi mal faite que celle de #Seralini. Je la critique volontiers.

tuan kuranes a relevé le gant que je lançais ainsi, et m'a fourni deux liens vers des articles récents, dans la même revue (Food and Chemical Toxicology, pas libre accès), qui concluent tous deux à une absence de risques concernant des OGM après étude de 90 jours sur des rats. Merci à Tuan. (Et si vous avez lu le billet quand il y avait peu de commentaires, retournez le lire, les commentaires sont intéressants.)

Voici donc mes commentaires sur ces deux articles.

Article 1 : Subchronic feeding study of stacked trait genetically-modified soybean (3Ø5423 × 40-3-2) in Sprague–Dawley rats

  • C'est pas super bien écrit, mais dans l'ensemble c'est compréhensible.

  • Ils font des vrais tests statistiques et donnent les résultats. Bin oui.

  • Ils ont mesuré des tonnes de paramètres, et tout comparé avec tout. C'est pas bien, surtout que je ne vois pas de correction pour tests multiples. Ceci dit, comme ils ne trouvent rien de significatif, ça n'est pas très grave : les comparaisons multiples augmentent le risque de trouver un effet quand il n'y en a pas, pas de ne pas trouver d'effet quand il y en a. En d'autres termes, ils se mettent en condition de détecter des effets apparents mais artéfactuels, et ne les trouvent pas. S'ils avaient corrigé pour tests multiples, ils auraient couru le risque d'être très stringeants et de ne rien trouver même s'il y avait des effets, vu leur taille d'échantillon (10 rats de chaque sexe comme chez Séralini et al.). La bonne chose à faire me semble-t-il serait de choisir un nombre plus faible de paramètres basé sur des hypothèses biologiques réalistes (quel effet peut-on attendre de ces modifications génétiques ? ça n'est pas vraiment discuté), puis de les tester de manière stringeante avec de plus gros échantillons.

  • A part le problème de la taille des groupes et du nombre de paramètres, le plan expérimental est bien meilleur que chez Séralini et al. Les auteurs comparent deux à deux des traitements appariés : x% de soja non transgénique - x% de soja transgénique, pour trois valeurs de x (7,5%, 15%, 30%). Plus un contrôle de nouriture de laboratoire standard, sans soja. (Chez Séralini et al., un seul groupe contrôle et neuf traitements, pas équilibrés.) Dans quelques cas, les auteurs trouvent des différences entre soja et contrôle sans soja, mais pas entre soja transgénique et non transgénique. Ce qui explique la phrase que Tuan trouve bizarre : "However the differences were not considered treatment-related and commonly fell within the normal ranges of the control group consuming the commercial diet". En effet, si la différence est due au soja mais pas spécifiquement au soja transgénique, elle n'est pas pertinente à la question du risque OGM (à supposer qu'il y ait un effet significatif après correction pour tests multiples, voir ci-dessus). Un autre point important ici est que les auteurs prennent en compte la variation spontanément observée dans cette souche de rats avec ce type d'alimentation. C'est important parce que vues les faibles tailles des groupes, il faut voir si la différence entre deux groupes peut être due au hasard dans cette souche dans ces conditions. C'est un point bien détaillé dans le rapport de la Haute autorité sur les biotechnologies, qui notent que ce contrôle manque dans l'étude de Séralini et al.

  • Ils présentent de manière détailée tous les résultats numériques : pour chaque mesure, on a la moyenne et l'écart-type. Et de manière importante ils présentent le détail de la composition de l'alimentation, et la mesure détaillée de la quantité d'alimentation, qui peut influer sur la santé des rats.

  • Y a des données supplémentaires, mais ça sont juste des photos de gels d'ADN dans un document MS Word (Aaaaargh dit mon bioinformaticien intérieur), rien de très intéressant.

  • Dans les conclusions et dans le résumé (Abstract), les auteurs écrivent "The results indicated that GM HOA-HT soybean 3Ø5423 × 40-3-2 is as safe as non-GM conventional isogenic line" et "These results demonstrated that the GM soybean 3Ø5423 × 40-3-2 is as safe as non-GM soybeans". Euh oui mais non. Tout ce qu'ils montrent c'est qu'ils ne détectent pas d'effet sur 90 jours sur des rats en élevage. Un peu de prudence dans les conclusions, les gars ? Votre biais se montre carrément là (voir point suivant).

  • Et j'ai gardé le meilleur pour la fin, le gros Mort De Rire : ils déclarent "no conflicts of interest". Un des OGM testés est breveté par Dupont, un des auteurs est affilié à Dupont, Dupont a fourni des échantillons pour l'étude, on y croit à fond là. Légèrement moins flagrant, d'autres auteurs sont affiliés à Supervision, Inspection and Testing Center of Genetically Modified Organisms, Ministry of Agriculture de Chine, qui pourrait avoir un intérêt à montrer qu'un OGM utile à l'agriculture chinoise soit sans danger.


Article 2 : A 90-day subchronic feeding study of genetically modified maize expressing Cry1Ac-M protein in Sprague–Dawley rats

  • C'est par la même équipe à peu de choses prêt, donc je serais bref. Pas d'auteur affilié à Dupont cette fois.

  • Le plan expérimental est très similaire, avec 12,5%, 25% et 50% de maïs OGM et non OGM, mais le contrôle avait aussi du maïs cette fois-ci (33% ; pourquoi ?).

  • Le mean platelet volume varie significativement (à ceci prêt qu'on a à nouveau un gros problème de répétition de tests) entre 50% maïs OGM ou non OGM. Ils écartent ça de manière pas très convaincante ("The difference was not considered to have biological meaning for the reason that the mean MPV value of rats fed with 50% BT-38 maize diet was comparable to that of rats in the control group and fell within the normal range of rats"). Pour être convaincants, ils auraient du admettre que leurs tests ne peuvent rien détecter sauf si c'est super dramatique, étant donné le nombre de rats et le nombre de paramètres testés.

  • Même observation, même problèmes pour plusieurs paramètres de la chimie du sérum. A chaque fois, ils écrivent que OK y a une petite différence significative (sans correction pour tests multiples ; avec des statistiques sérieuses rien ne serait significatif il me semble) entre OGM et non OGM, mais ça rentre dans la variation normale. Alors dans ce cas, ça veut dire qu'ils utilisent le mauvais test statistique depuis le début ! Faire un test et dire que ça ne veut rien dire quand il est significatif, c'est incroyablement mauvais. Il faut choisir le test qui correspond à l'hypothèse à tester et au plan expérimental. Donc si leur raisonnement est correct, il faudrait d'abord tester pour chaque paramètre s'il sort de la variation normale connue (dont il faudrait fixer la détermination de manière très claire), et ensuite ne comparer OGM et non OGM que dans les cas où ça sort de cette variation.

  • Toujours pas de conflit d'intérêt, j'y crois toujours pas malgré l'absence de Dupont.


Au bilan, deux études médiocres, que je me suis bien embêté à lire, avec comme défaut principaux des conclusions trop générales par rapport aux données et des déclarations d'absence de conflits d'intérêts malhonnêtes. C'est pas bien, et après avoir regardé rapidement d'autres articles du même journal je trouve l'état global de ce domaine déprimant.

Mais rien de comparable à Séralini et al au niveau mauvaise science, obfuscation des données, absence de tests, et conclusions abusives.

Mise à jour : il paraît que c'est "signalés" et pas "signalé" dans le titre. Ca doit être pour ça que je suis scientifique et pas journaliste.

vendredi 19 octobre 2012

Pourquoi est-ce que l'étude #Seralini sur les #OGM m'énerve ?

[caption id="attachment_548" align="aligncenter" width="153"] cliquez sur l'image[/caption]

Le dimanche 7 octobre j'ai eu un échange intéressant à propos des OGM sur Twitter, échange sur lequel je voudrais revenir ici.

L'échange proprement dit a démarré lorsque j'ai découvert et twitté une pétition demandant la diffusion des données de l'étude célèbre de Séralini avec les rats à tumeur. J'ai eu une réponse rapide de "@BEBIO". J'ai essayé de répondre de manière constructive (je vous laisse juger), et bien m'en a pris, nous avons eu un échange intéressant. Le voici, avec mes tweets en noir et ceux de @BEBIO en vert (et les liens en bleu) (si vous n'avez pas l'habitude de twitter : @BEBIO veut dire que je m'adresse à eux, et réciproquement @marc_rr ils s'adressent à moi) :
Scientists petition to #Seralini: relase your #GMO data ipetitions.com/petition/dr-se… #OGM #openscience

@marc_rr #OGM Un scientifique n'ayant pas critiqué la "rigueur" des études Monsanto, ne peut-être crédible à critiquer celle du CRIIGEN


@BEBIO chiche, envoyez-moi un lien vers une étude #OGM aussi mal faite que celle de #Seralini. Je la critique volontiers.

@BEBIO Et je suis favorable à la transparence en sciences dans tous les cas : toutsepassecommesi.cafe-sciences.org/2012/06/01/tou…. Pas comme #Seralini apparemment.

@BEBIO Oh et pourquoi demander à voir les données est-il vu comme "être critique" ? C'est une procédure normale en sciences. #Seralini #OGM

@marc_rr #OGM Malheureusement, Monsanto refuse de publier ses données. Cependant, ce qui en ai paru est avec 10 rats et sur 90 jours. QED


@marc_rr Demander la transparence partout et pour toutes les études #OGM est normal. Si c'est ce que vous demandez, nous sommes d'accord.


@marc_rr Le cas des chercheurs s'étant attaqués aux #OGM sans prendre l'opinion public à témoin permet de comprendre le choix de #SERALINI


@marc_rr Un article dont je ne partage pas certaines affirmations, mais qui est intellectuellement de bonne tenue agrobiosciences.org/IMG/pdf/OGM_Go…


@BEBIO Merci, très interessant. Et merci pour cet échange constructif. J'essayerais de donner suite sur mon blog, >140 char nécessaires.

@marc_rr Vu. Je lirai ça avec intérêt ... a défaut d'être forcément d'accord avec vous. ;-)



Alors, quelques commentaires complémentaires donc. (Finalement ce billet est devenu très long, je m'en excuse.)

Je me permets d'abord de noter que personne n'a répondu à mon "chiche". Pas le moindre lien vers une étude aussi mal faite que celle de Séralini (on a twitté avec le hashtag très utilisé #OGM, y a forcément du monde qui a lu mon message). Je ne pense pas en fait que ce soit dû à ce qu'il n'y ai pas de tels exemples (ou pas uniquement), mais plutôt que ça illustre que les personnes qui critiquent les OGM ne lisent généralement pas la litérature scientifique, et donc d'une part n'ont pas d'exemples à me donner, et d'autre part n'ont pas de références contre lesquelles comparer l'étude de Séralini et al., qui leur permettraient de voir qu'elle est réellement de très mauvaise qualité.

Ensuite, la remarque de départ pose la question : pourquoi est-ce que de nombreux scientifiques, dont je suis, sont si énervés contre cette étude ? Pourquoi pas contre les autres ? C'est une question tout-à-fait légitime.

Nous essayons de faire de la bonne science. C'est beaucoup de travail. Vraiment. Je pense que c'est un point qui passe difficilement dans la vulgarisation parce que les détails sont chiants, mais ils sont critiques. On passe beaucoup de temps à essayer de faire des trous dans nos propres raisonnements, à comprendre les détails non seulement des méthodes qu'on utilise (détails pointus, ennuyeux pour le profane et parfois pour nous, mais souvent critiques je me répète), mais aussi des méthodes dont sont issus les résultats sur lesquels on s'appuie, on critique nos propres plans expérimentaux (contrôles, nombre d'échantillons, biais dans la répartition, etc), et quand on a les résultats on ne leur fait pas confiance, on les revérifie, on cherche à montrer qu'on s'est probablement trompé (ou quand on est comme moi vieux chef, on cherche à montrer que le doctorant s'est trompé...), puis finalement on rédige nos résultats avec plein de conditionnels et de peut-être, avant de se faire casser par un expert méchant mais qui a souvent raison. Chercher la vérité sincèrement ça n'est pas facile, même si pour certains d'entre nous c'est amusant. Et à la fin, quand tout va bien, dans 99% des cas ce qu'on a montré c'est un détail chiant sur un sujet qui n'intéresse que nous. Mais c'est super important ! C'est ça la science, le diable est dans les détails.

Après avoir fait tout ce boulot, certains d'entre nous essayent de communiquer notre passion, passion pour la vérité et le travail précautionneux qui accompagne sa recherche. C'est difficile, parce que c'est lent et plein de détails et de conditionnels.

Et là, paf, tout le monde fait que de parler d'un travail de merde, sans aucun contrôle, sans aucune statistique, qui baffoue toutes les règles les plus élémentaires de la recherche honnête. Sérieusement, tous les ans je gronde gentillement (j'essaye) des étudiants de master qui font moins d'erreurs que Séralini et compères. Et il faudrait se taire ? Parce que les résultats de la recherche nulle à chier, là, ils dérangent une méchante société ? Que dalle. Monsanto c'est pas des anges, c'est une grosse société privée qui cherche à gagner un max d'argent dans les limites de la légalité sensu stricto. Alors c'est sûr que s'ils peuvent tirer le fric d'un paysan ils vont le faire, et s'ils gagnent plus en poluant sans se faire attraper, il vont le faire. Mais ça ne veut pas dire que la recherche de Séralini soit correcte.

L'ennemi, ça n'est pas Monsanto, ça n'est pas les OGM, ça n'est pas le parti Vert ou un autre. L'ennemi c'est le mensonge, et son copain la demi-vérité malhonnête. Quel que soit le camp du menteur. Et la très grande majorité des scientifiques partage cette éthique. On est là pour chercher la vérité de manière honnête, rigoureuse, souvent chiante, rarement télégénique. On aimerait que tout le monde respecte la recherche de la vérité comme nous on le fait. (Aparté : vous avez vu les commentaires sur les débats Romney-Obama ? Qui a mieux parlé, a eu le plus d'assurance, blabla. Merde, est-ce qu'ils ont dit la vérité ça compte un peu des fois ? Bref.)

Et donc oui ça m'énerve, ça énerve beaucoup de scientifiques, quand des gens mentent au public et sont écoutés, sur des sujet de notre compétence, en mettant des blouses blanches et en se présentant comme scientifiques.

D'ailleurs j'en profite pour râler contre un autre truc favori des médias quand ils parlent de "science" : trouver un chercheur "atypique", "à contre-courant", la personne seule contre l'establishment. Ca sonne bien, ça fait de belles histoires, et ça recouvre presque toujours de la "science" inexacte. Il y a une image que j'ai du mal à comprendre, c'est celle que les scientifiques sont conservateurs. On rêve tous de montrer que ce qu'on a appris à la fac c'est faux ! Et si on y arrive, c'est la gloire ! Mais en général on n'y arrive pas, non seulement parce qu'on est pas assez bons, mais aussi parce qu'à force de tout tester et tout bétonner depuis des générations, y a quand même beaucoup de choses correctes en science. Alors dans un sens on est conservateurs, oui : si on nous montre un résultat ou une conclusion surprenante, on veut beaucoup d'évidence, beaucoup de tests, avant de le croire. Mais dans un sens plus profond, non : on espère toujours avoir tort, on espère montrer que les pseudogènes ont une fonction et que le même gène dans l'autre espèce a une fonction différente. Mais le montrer vraiment, pas juste le dire.

Et donc montrer, c'est aussi montrer ses données pour que les autres puissent vérifier. C'est élémentaire. Vous me direz, Monsanto ne montrent pas. D'abord, si, ils montrent aux autorités de contrôle qui doivent pouvoir vérifier. Ensuite, si le voisin travaille mal ça n'est pas une raison pour faire pareil ; Séralini etc sont sensés être meilleurs que Monsanto, non ? Sinon c'est quoi l'intérêt ? Mentir plus fort ? Enfin, y a plein d'études non Monsanto qui étudient ces plantes et cet herbicide. C'est à ces scientifiques que Séralini doit ses données.

Oui je suis énervé. Y a de quoi. Comme l'a dit très justement un collègue, dire des choses fausses demande peu d'énergie, montrer qu'elles sont fausses en demande beaucoup. Les mensonges sur les vaccins donnant l'autisme ont dérouté des millions d'euros/dollars/etc depuis la recherche biomédicale utile vers des contrôles inutiles pour démontrer à de multiples reprises que non, les vaccins ne causent pas l'autisme. Pendant ce temps, les conspirationistes ne sont jamais convaincus, et on ne fait pas de la recherche sur des sujets pertinents. Là ça va faire pareil, vous allez voir. On va détourner de l'argent qui pourrait améliorer les cultures pour les paysans pauvres qui manquent de vitamines, ou qui pourrait redonner du goût à nos légumes, ou qui pourrait tester les doses dangereuses de produits vraiment à risques, et on va répliquer plein de fois (mais mieux) les études mal faites de Séralini. Et quand on ne trouvera rien, ce à quoi on s'attend parce qu'on connaît les mécanismes moléculaires en jeu, les anti-OGM n'y croiront pas et crieront au complot.

Et à plus court terme, pour nous autres scientifiques démontrer toutes les erreurs dans l'étude de Séralini nous demande du temps et de l'énergie qu'on ferait mieux de consacrer à autre chose. Alors on va me repprocher de ne pas expliquer les problèmes ici. C'est que c'est fait ailleurs : Tom Roud, Bacterioblog et encore, Philippe Julien, pour ne citer que ceux du C@fé des sciences.

Qui a perdu dans cette histoire ?

  • Les scientifiques, dont le travail est mal représenté, calomnié, et qui auront du mal à communiquer sur des résultats pertinents quand il y en aura.

  • Les militants écolos, qui creusent un fossé entre eux et les scientifiques dont beaucoup sont (étaient ?) a priori de sensibilité proche.

  • Séralini et amis, qui ont perdu toute crédibilité auprès de leurs confrères.

  • Les journalistes scientifiques sérieux, qui essayent d'expliquer le fond des choses par-dessus le fracas ambiant.

  • Les personnes et l'environnement pouvant bénéficier d'OGM bien faits.


Qui a gagné ?

  • Monsanto, qui avec des ennemis pareils n'a pas besoin d'amis. Le jour où il y aura un résultat réellement embarassant pour eux (et ça arrivera, ils sont gros et ont plein de produits), il auront beau jeu de rappeler ce fiasco.

  • Les journalistes pas sérieux, qui ont vendu plein de journaux.

  • Ceux des militants écologistes qui s'en fichent des scientifiques de toutes façons.

  • Séralini et amis, qui vont vendre plein de livres et de films (oui ils ont perdu comme scientifiques, ils ont gagné comme personnages publics).


Au fait, le lien à l'entretien avec Olivier Godard est très intéressant, mais ne change pas le fond de ce que j'avais à dire. Qui ne tenait pas tout-à-fait dans 140 caractères.

Mise à jour : j'ai rajouté des liens vers l'excellent billet "Quand l’alterjournalisme rencontre l’alterscience". Et si vous avez le temps, écoutez Denis Duboule sur l'évaluation réellement scientifique des OGM.

vendredi 12 octobre 2012

Libre accès, mais ouvert à quel point ? #openaccess

[caption id="attachment_500" align="aligncenter" width="361"] cliquez sur l'image (ça faisait longtemps que je voulais mettre un lien à cet excellent blog BD)[/caption]

Des acteurs majeurs de la publication libre accès ont pris l'excellente initiative de développer une échelle de l'ouverture des éditeurs, sur différents critères. L'idée est de sortir d'une dichotomie ouvert / fermé, qui masque des situations plus complexes, et de fournir aux scientifiques, aux libraires, et aux autres parties concernées une vue claire de la position des éditeurs.



Si vous cliquez sur le tableau ci-dessus, vous verez qu'ils ont pris en compte différents aspects de l'ouverture des publications :

  • Le droit des lecteurs à lire sans entraves ni coût.

  • Le droit de réutilisation (par exemple dans Wikipedia ou dans un livre).

  • Si le copyright reste aux auteurs ou à l'éditeur.

  • Si les auteurs peuvent mettre le papier à disposition sur le web dans sa forme finale, ou brouillon, ou pas du tout.

  • La déposition dans des archives centralisées publiques (comme PubMed Central).

  • La structuration du papier permettant sa lecture automatique, donc l'exploitation aisée de l'information à grande échelle (par exemple une compilation automatique des résultats d'études d'impacts d'OGM en fonction de la durée de l'étude et du type de rats utilisés...).


Ils ont eu la bonne idée de demander des commentaires, et voici ce que je leur ai proposé d'ajouter à leurs critères (faut jamais me demander mon avis, c'est risqué) :

  • Les expertises (peer review) sont-elles disponibles à côté de l'article, de manière anonyme ou non ? (Note : c'est très rare qu'elles le soient, mais je souhaiterais que ça devienne systématique. Je suis pour maintenir l'anonymat des experts, ce qui est assez débattu en ce moment.)

  • Est-ce qu'il est possible d'ajouter des commentaires libres directement sur le site web de l'article (comme dans PLOS et BMC) ?

  • Est-ce que l'éditeur a une politique d'embargo systématique envers la presse, les présentations dans les conférences, etc (comme Science ou Nature) ?

  • Est-il obligatoire de fournir du code source Open Source si les résultats incluent un programme ou dépendent d'un programme informatique ? (Par exemple c'est obligatoire dans PLOS Computational Biology mais pas dans OUP Bioinformatics.)

  • Est-il obligatoire de déposer les données brutes dans des banques de données indépendantes le cas échéant (telles que GenBank/EMBL pour l'ADN) ?


J'ai manqué des points ? Vont-ils tout prendre en compte ? Ne ratez pas la suite de ce feuilleton halletant.

vendredi 5 octobre 2012

Des gènes soit presque morts soit presque vivants

[caption id="attachment_526" align="aligncenter" width="295"] cliquez sur l'image[/caption]

On sait depuis longtemps que les gènes naissent, vivent et meurent. Forcément, puisqu'on observe des gènes dans certaines espèces mais pas d'autres (par exemple y a des récepteurs aux estrogènes chez les vertébrés mais pas chez les mouches, encore moins les plantes ou les champignons), donc ils du "naître" à un moment, et on observe parfois que la distribution doit s'expliquer par une perte (par exemple presque tous les mammifères ont l'enzyme de synthèse de la vitamine C, sauf un sous-groupe de primates dégénérés dont nous sommes), donc le gène a du "mourir".

Un article récent dans Nature (dont d'accès fermé, désolé) propose un très joli modèle sur la façon dont ce cycle vie-mort des gènes peut se produire, et met en avant surtout l'aspect graduel de la transition entre ADN codant pour un gène fonctionnel ("vivant") ou non.

Ils ont utilisé plusieurs avantages du modèle "levure" : la levure S. cerevisiae (de boulanger et autres fermentations) est très bien étudiée du point de la fonction des gènes ; les levures ont des génomes très compacts où presque tout est fonctionnel, donc c'est facile d'étudier le reste ; et on a les génomes de 13 autres levures plus ou moins apparentées à S. cerevisiae, qui permettent de faire des comparaisons à différents degrés de divergence évolutive (comme on pourrait comparer le génome humain à ceux du chimpanzé, du gorille, du macaque, d'un lémurien, de la souris, etc).

Dans le génome de la levure (quand je dis la levure, je veux dire S. cerevisiae, OK ?) on connait des gènes bien définis, clairement fonctionnels. On connaît aussi des pseudo-gènes, qui sont des cadavres de gènes ayant perdu leur fonction mais ayant encore une ressemblance notable au gène dont ils sont issu. Les pseudo-gènes n'étant pas protégés par la sélection naturelle accumulent beaucoup de mutations, et deviennet peu-à-peu indistinguables de l'ADN non fonctionnel aléatoire.

Mais les gènes et pseudo-gènes connus ont un biais de taille si je puis dire : on sait très mal détecter les plus petits des gènes. On manque de signal statistique.

Pourquoi donc ? Parce qu'une séquence courte peut sembler avoir les propriétés d'un gène par hasard. Tiens donc. Et alors une séquence courte ne pourrait-elle pas réellement avoir les propriétés d'un gène par hasard ? L'hypothèse que testent (et démontrent c'est pour ça qu'on en cause) les auteurs est que des séquences courtes peuvent générer au hasard des "proto-gènes", des gènes naissant. Pour tester cela, ils prévoient qu'il y ait non pas une division nette entre gènes clairement actifs et conservés dans l'évolution, et séquences non géniques inactives et non conservées, mais un continuum entre les deux, avec les proto-gènes généralement plus courts, moins actifs (ils sont encore en train de devenir des gènes), et moins conservés dans l'évolution (ils viennent d'apparaître).

Et c'est ce qu'ils observent : plus une séquence qui ressemble à un gène (clairement fonctionnelle ou proto-gène potentiel) est longue, plus elle est exprimée (en première approximation, plus elle produit de protéine), plus les protéines potentielles sont codées efficacement (codon bias index, fréquence des acides aminés), plus les protéine potentielles sont solubles (moins hydrophobe, moins de régions transmembranaires, moins de régions désorganisées). De plus, si on ne regarde que les gènes potentiels courts, ceux qui sont partagés seulement entre la levure et des espèces très proches, donc sont apparus récemment, ressemblent moins à des gènes fonctionnels que ceux qui sont partagés par des espèces éloignées, et donc existent depuis longtemps. On voit donc les différentes étapes du passage de proto-gène à vrai gène, en comparant des séquences qui ont des âges évolutifs différents.

Donc il y a bien naissance progressive des gènes à partir des séquences aléatoires, de manière approximativement symmétrique à la mort progressive des gènes, qui deviennent des séquences aléatoires. A noter que ce sont des processus réversibles : un proto-gène peut être inactivé par une vilaine mutation et redevenir non fonctionnel. Et il y a des cas connus de pseudo-gènes réactivés par une gentille mutation, et redevenus donc des gènes actifs. Et bien sûr dans l'ADN non fonctionnel "aléatoire", on ne sait pas quel fraction est composée de pseudo-gènes tellement dégénérés qu'on ne les reconnaît plus, mais peuvent maintenant donner naissance à des pseudo-gènes.

Et on a donc le "cyle de la vie" des gènes suivant :

[caption id="attachment_528" align="aligncenter" width="599"] cliquez sur l'image si vous avez un abonnement à Nature[/caption]

lundi 24 septembre 2012

Faudrait pas que le bon peuple puisse juger de la science concernant les #OGM directement (#openaccess, not)

[caption id="attachment_486" align="aligncenter" width="130"] cliquez sur l'image[/caption]

Je me méfie des révolutionnaires qui commencent par changer le nom de la police politique tout en augmentant ses prérogatives. Je me méfie des scientifiques qui veulent combattre les idées reçues en cachant leurs expériences et les détails de leurs résultats.

Il y a beaucoup à dire sur l'étude récente de rats nouris au maïs OGM, et d'ailleurs beaucoup est dit. Pour mes lecteurs qui ne verraient cette question que par une lunette idéologique (genre commentaires sur Passeur de sciences ou sur Biopsi), il y a une raison pour laquelle plein de scientifiques sont fachés avec cet article : c'est de la mauvaise science qui reçoit plein de pub (excellent commentaire sur bacterioblog). C'est un peu pareil que pour ENCODE, sauf que là vous n'aviez pas fait attention, et que ENCODE c'est 1000 fois mieux fait. Bon, vu les réactions chez Biopsi, si vous ne voulez pas me croire, vous ne me croirez pas. Mais si, ça existe la mauvaise science.

Un point abordé chez Biopsi, et sur lequel je voudrais revenir, c'est la publication fermée de cet article. Car enfin, il paraît que tout ceci a été fait pour éclairer le peuple et les décideurs, et mettre fin au règne maléphique de la pseudo-science manipulée par les multinationales, et que font les auteurs ?

  1. L'étude a été faite en secret. Apparemment sinon les gros bras de Monsanto seraient venu faire exploser le labo ou quelque chose comme ça.

  2. L'article a été fourni à quelques journaux très peu à l'avance, à la condition de ne pas le montrer à qui que ce soit. Y compris donc ne pas le montrer à d'autres scientifiques pour avoir leur opinion sur les travaux et les résultats. Ce qui est très choquant, et veut dire que les journalistes avaient le choix entre écrire un article à temps pour l'évènement, mais sans aucune information ou expertise externe, ou attendre et publier plus tard. Ce qui veut dire que tout le buzz le jour J était forcément mal informé. Excellente politique de communication scientifique, bien mise en pièces par l'excellent journaliste scientifique Carl Zimmer sur son blog.

  3. L'article est publié dans une revue disponible uniquement sur abonnement, donc pas accessible aux citoyens, aux militants, aux profs de lycée, aux journalistes, bref j'en ai déjà parlé ailleurs (et aussi ici), mais quand une étude est potentiellement si importante pour tout le monde, ça me paraît crucial de faire en sorte qu'elle soit le plus largement disponible possible. Ils auraient publié dans PLOS One, ça serait en copyright Creative Commons et librement disponible pour la planète (et en prime le facteur d'impact est plus élevé). Et là non seulement ça n'est pas chez PLOS, mais c'est chez Elsevier, le grand méchant loup de l'édition scientifique, la multinationale la plus grosse et la plus rapace du secteur. D'ailleurs chez PLOS, non seulement c'est libre d'accès, mais on peut ajouter des commentaires, et les liens Twitter sont montrés en temps réel à côté de l'article. C'aurait pas été bien ça, pour faire débat public ?

  4. Une pratique courante en science, où on ne peut souvent pas mettre toutes les données ou tous les résultats dans l'article lui-même, pour des raisons de place, est de fournir des "matériels supplémentaires", qui contiennent les détails des analyses ou des preuves, les tableaux de résultats bruts, l'intégralité des figures là où on n'a montré qu'un exemple dans l'article, etc. Vu le faible nombre de rats (donc de données), et l'importance que chacun puisse juger de ces résultats, c'eut été facile de le faire. Mais non. Pas de matériels supplémentaires ici. Comparons à ENCODE : 15 To de données publiquement disponibles.

  5. On doit généralement déclarer les "conflits d'intérêts" à la fin des articles. Ici, les auteurs n'en déclarent aucun, donc on en déduit que les résultats et leur publication n'ont aucune incidence financière personnelle pour eux. Sauf que Séralini, responsable de l'étude (et curieusement 1er auteur, en biologie d'habitude le responsable est dernier, mais bref), sort en même temps un livre et un film sur le sujet "OGM fait-moi peur". C'est pas un conflit d'intérêt, ça ? Ils l'auraient déclaré, ç'aurait augmenté leur stature morale à peu de coût. Mais non.


Toute ceci n'est qu'un aspect de cette affaire, et peut-être pas le plus important. Mais d'une part il me tient à coeur (et c'est mon blog ici), et d'autre part cet aspect est indicatif à mon sens de l'attitude générale de ces auteurs et de leurs soutiens, qui ne semblent pas tant chercher la vérité (une recherche généralement collective et ouverte), mais chercher à affirmer une position politique. Tiens, encore un parallèle, inquiétant celui-ci, entre biologie et économie.

Petite note supplémentaire : ça me frappe que tous les comptes Twitter et tous les blogs que je suis, sélectionnés parce qu'ils parlent de science de manière intéressante, sont critiques de cette étude. Je n'ai pas choisi de lire ces gens parce qu'ils sont pro-OGM, la grande majorité travaille dans des laboratoires fondamentaux sur fonds publics, pourtant je n'ai pas encore vu une défense raisonnée de l'étude. Sur ENCODE ou la bactérie à l'arsenic par exemple, y avait débat dans la communauté scientifique. Ici, non.

Deuxième note : pour ceux qui pensent qu'on est tous à la solde de Monsanto. D'abord, j'attends toujours le virement bancaire, à titre personnel. Contactez-moi directement merci. Ensuite, sérieusement, les industries poluantes dépensent beaucoup beaucoup pour faire de la propagande pseudo-scientifique anti changement climatique, et pourtant la très grande majorité des chercheurs dans le domaine montre que le changement se produit et est dû à l'activité humaine. Avec de l'argent, on peut facilement acheter une illusion de débat, on ne peut pas facilement acheter un consensus scientifique.

Mise à jour : trouvé un excellent commentaire francophone sur la manière dont les journalistes ont eu accès à l'article.

Mise à jour 2 : je ne suis pas toujours d'accord avec le traitement de l'info scientifique par Sylvestre Huet, mais là il fait plein dans le mile.

Mise à jour 3 : Jérémy @ChemPhilia me signale sur Twitter cet excellent article traitant du "syndrome de la recherche unique", tout à fait pertinent.

vendredi 21 septembre 2012

Expertise par les pairs #peerreview : une question de point de vue ?

[caption id="attachment_407" align="aligncenter" width="171"] cliquez sur l'image[/caption]

Suite aux remarques de H sur mon post il y a quelques temps, et à une série de posts intéressants de Mike Taylor (posts 1, 2, 3), je me suis demandé à quel point les différences de point de vue sur l'expertise par les pairs sont dues à des différences d'expérience selon les rôles joués.

On peut jouer l'un de trois rôles par rapport à cette expertise :

  1. Auteur de l'article, qui reçoit les expertises.

  2. Expert, qui juge l'article, parmis plusieurs experts.

  3. Editeur, qui choisit les experts, reçoit leurs évaluations, et prend une décision finale.


Dans chacun des rôles, plusieurs cas de figure sont possibles. Chacun va colorer l'expérience personnelle de l'expertise (peer review).

En tant qu'auteur, vous pouvez avoir fait un travail qui laisse à désirer, et les experts peuvent améliorer votre article ; vous pouvez avoir mal écrit votre article, et les experts peuvent vous aider à clarifier votre pensée ; ou vous pouvez avoir un excellent travail bien écrit, et les "bon" experts n'ont rien à dire, mais le troisième expert vous embête. Si vos articles sont généralement très bons, votre expérience de l'expertise n'est pas forcément très positive. Et il faut prendre en compte la possibilité que votre travail ait besoin d'être amélioré, mais que vous ne vous en rendiez pas compte (on est humains), enquel cas votre expérience subjective sera encore négative, bien que l'expertise ait marché en fait.

En tant qu'expert, vous pouvez fournir des remarques pertinentes et correspondant aux attentes du journal. Ou vous pouvez être trop gentil, et votre revue n'apporte rien. Ou vous pouvez être trop méchant (voir troisième expert ci-dessus), et l'éditeur a raison de ne pas prendre en compte vos remarques. Si vous êtes systématiquement trop gentil ou trop méchant, votre expérience de l'expertise n'est à nouveau pas très positive.

En tant qu'éditeur, et c'est là où je veux en venir, vous voyez tout cela. Vous voyez de bons et de moins bons papiers. Vous recevez des expertises informatives et d'autres vides de contenu ; des trop gentilles et des trop méchantes. Or la plupart des chercheurs vont d'abord être dans le rôle de l'auteur, ensuite relativement rapidement dans le rôle de l'expert, mais nettement plus tard ou jamais dans le rôle de l'éditeur. Dans mon expérience (relativement limitée) d'éditeur, il n'est pas rare que l'expertise améliore les articles, et il est fréquent qu'il permette d'éviter la publication de travaux franchement erronés.

Donc mon impression pour le moment (je peux me tromper), c'est que les critiques de l'expertise par les pairs manquent souvent de l'expérience d'éditeur.

J'ajouterais à ceci que le rôle de l'éditeur va dépendre de la politique du journal, mais si votre papier est refusé parce qu'il n'est "pas suffisamment significatif pour notre journal", la faute en est à cette politique éditoriale, et non à l'expert, quoiqu'il ou elle ait pu dire.

-------

Rien à voir, mais allez lire l'excellent commentaire de Philippe Julien sur l'étude récente sur les rats mangeurs d'OGM.

------

Encore rien à voir, mais j'ai plein de spams dans les commentaires, allors si le votre est perdu, je m'en excuse.

vendredi 14 septembre 2012

Economiste et biologie évolutive

[caption id="attachment_411" align="aligncenter" width="90"] Cliquez sur l'image (ce bonhomme c'est Krugman)[/caption]

Via le blog de Jeremy Fox (anciennement contributeur principal du blog du journal Oikos), j'ai découvert un texte un peu ancien mais intéressant, dans lequel l'économiste Paul Krugman discute des similarités entre l'économie (en tant que science) et la biologie évolutive.

Krugman dit plusieurs choses intéressantes. L'économie et la biologie évolutive sont tous deux intéressés par ce que font les individus ; l'analyse de niveaux supérieurs doit être basée sur la compréhension des individus : Methodological individualism. Les individus suivent leur propre intérêt ; les modèles qui marchent expliquent généralement l'altruisme apparent par un intérêt égoiste indirect. Nous nous intéressons aux interactions entre individus. Par contre en économie, on suppose généralement que les individus sont intelligents, alors qu'en biologie évolutive le gène individuel est aveugle aux conséquences de sa fonction et son évolution.

Dans les deux domaines, les chercheurs sont intéressés par des problèmes de stratégies d'optimisation, de préférence des optimisations stables. Mais Krugman note aussi que dans les deux cas, l'optimisation doit être vue comme une stratégie de modélisation, et non comme un principe très fort.

Une autre similarité amusante est que les deux domaines s'appuyent fortement sur les maths, mais attirent des personnes qui sont souvent peu motivées par cet aspect mathématique.

Finalement, Krugman discute un point sur lequel je voudrais me démarquer de lui. Il note avec raison qu'en dehors d'un domaine, ce domaine sera souvent popularisé par un petit nombre d'auteurs, qui risquent de ne pas être représentatifs. Par exemple en économie moi je lis surtout Krugman ;-). Mais à mon avis il commet une erreur en considérant qu'en ayant lu Dawkins, Hamilton et Maynard-Smith, il a une vue à peu près équilibrée de la biologie évolutive, par opposition à ses collègues ayant lu Gould. Dawkins et Gould ont en commun d'avoir écrit des livres très lus. Les deux ont également contribué des avancées importantes à des aspects différents de la biologie, même si on peut arguer que Gould a davantage fait de recherche, et que Dawkins a davantage clarifié des concepts. N'empêche que Hamilton et Maynard-Smith et Dawkins, très intéressants, représentent une certaine approche de la biologie évolutive, individu et gène centrée, avec un intérêt fort pour l'optimisation et peu d'intérêt pour l'histoire évolutive ou l'évolution non adaptative. C'est vrai qu'avoir une vue d'ensemble de la biologie évolutive, c'est pas évident. Et au moins Krugman essaye.

(Voici une autre comparaison par Kurgman entre la réaction des imbéciles face aux complexités des deux domaines)

vendredi 7 septembre 2012

#ENCODE : La revanche du retour du fils du génome humain

[caption id="attachment_436" align="aligncenter" width="227"] cliquez sur l'image[/caption]

En 2001, des équipes de chercheurs ont publié deux versions de la séquence du génome humain. A l'époque on a comparé cela à poser un homme sur la Lune. Rétrospectivement, c'était plutôt Spoutnik : la preuve que c'était possible d'aller là-bas, mais on n'y était pas encore.

Cette semaine, un nouveau consortium a publié une série de papiers assez incroyables du project ENCODE, qui vise à comprendre en détail exquis tout le fonctionnement de ce génome. Je vais dire que c'est notre moment Gagarin. Oui on peut le faire et on l'a fait. C'est le deuxième étage de la fusée "comprendre notre génome" (OK, j'arrête les analogies foireuses).

Il y a une kilochiée de données là-dedans, et comme tout le monde ça va me prendre un peu de temps pour digérer tout ça. Je vais donc me concentrer ici sur quelques points qui sont apparus via les réactions à chaud (bref, je vais blogguer ce que j'ai lu sur twitter).

D'abord quelques chiffres :

  • ENCODE c'est 440 chercheurs dans 32 labos dans le monde

  • 30 articles publiés le même jour

  • 1'600 types d'expériences sur 147 types de tissus (tissu au sens "tissu musculaire"), portant pour la plupart sur les 3 milliards de bases du génome humain

  • Au final 15 Tb de données.


Ensuite, le point énervant, c'est que la quasi-totalité de la couverture que j'ai vue dans la presse ou les communiqués de presse se concentre sur un message simple :
On croyait que presque tout le génome était de l'ADN poubelle ("junk"), mais que nenni, on vient de découvrir que c'est presque tout fonctionnel.

Réponse courte : test de l'oignon.

Réponse longue: je vais essayer d'expliquer rapidement ce qu'ils ont trouvé (d'après les résumés, billets de blogs, et présentations orales que j'en ai vues - je n'ai pas encore lu vraiment les papiers), puis je vais donner une interprétation légèrement différente de celle des communiqués de presse, puis je vais expliquer qu'on n'est pas si surpris que ça.

Ce qu'ils ont trouvé : 80% du génome est "fonctionnel". La définition de "fonctionnel" est très débattue en biologie (on n'est pas très forts pour les définitions claires - on ne sait toujours pas ce qu'est un gène, une espèce, ou le vivant), mais revenons à l'analogie que je donnais sur l'annotation de génomes. La définition la plus courante suppose que l'on sache à quoi sert une partie de génome dans l'organisme. D'autres définitions peuvent être qu'on ne connait pas la fonction mais que c'est probablement important, par exemple parce que c'est conservé entre humains et poissons. Ici, la définition donnée est qu'une région du génome est considérée comme fonctionnelle si elle resort comme positive dans au moins un des tests effectués. Ne nous attardons pas ici sur les problèmes de répétition des tests, parce que je n'ai pas encore lu les méthodes en détail, mais les personnes impliquées sont généralement de très bon bioinformaticiens et statisticiens, et je ne pense pas qu'ils aient laissé passé des erreurs grossières du type "un test sur 20 est significatif au hasard". Par contre, les tests mesurent uniquement une activité biochimique dans les conditions expérimentales. Parmi les tests, il y a la liaison de facteurs de régulation de l'ADN plus ou moins spécifiques, et il y a la transcription, à savoir copier un fragment d'ADN en fragment d'ARN. Donc 80% du génome est détecté comme actif dans au moins un test biochimique.

Comme dit sur Twitter :
John Davey@johnomics

I wish #ENCODE had gone for the more complex '20% functional, 80% active'. Yes, more to explain, but it IS complex. And still exciting

En fait, les auteurs ne montrent pas que 80% du génome soit fonctionnel. A savoir qu'ils ne connaissent pas de fonction, ne savent pas si c'est indispensable ou même utile à la cellule ou à l'organisme, ne savent pas si ça joue un rôle évolutif ou médical.

Ewan Birney, leader de l'analyse bioinformatique dans le consortium ENCODE, a écrit un excellent billet de blog que toute personne intéressée non seulement à la génomique, mais à la science haut débit ou à la biologie moderne, doit lire. Dedans, il justifie d'abord le chiffre de 80%, en confirmant que c'est tout ce qui a une "activité biochimique spécifique" (spécifique ça veut dire que ça n'affecterais pas n'importe quel bout d'ADN au hasard). Ensuite et très intéressant, il donne une estimation du fonctionnel stricto sensu : Environ 8% du génome a une interaction spécifique avec une protéine (par exemple un facteur de transcription) ; auquel il faut ajouter environ 1% d'exons (morceaux qui codent vraiment pour des protéines - bien qu'il ne précise pas "exons codants") ; comme ils n'ont pas étudié toutes les protéines pouvant interagir avec l'ADN, il double son estimation, donc (8+1)x2 = 18% (il ne dit pas pourquoi les exons sont inclus dans le chiffre à doubler) ; arrondissons, ça fait 20% estimation minimale du génome fonctionnel.

Basé sur les mêmes chiffres, j'aurais tendance à dire estimation basse 9% (avant de doubler au hasard et arrondir), estimation haute 20% (voir ci-dessus), et non estimation basse 20%, estimation haute 80%.

Pour revenir au sempiternel "on est très surpris de trouver tout cet ADN supposé poubelle fonctionnel", il faut clarifier que personne n'a jamais dit que tout l'ADN non codant était "poubelle" ou non fonctionnel ! C'est super énervant au fil des années de voir ce canard resortir chaque fois qu'une étude trouve de la fonction nouvelle dans un morceau d'ADN non codant. Enfin quoi, la régulation des gènes a valu le prix Nobel à Jacob, Monod et Lwoff en 1965 ! Plus près de nous, mais clairement avant la publication ENCODE que nous célébrons cette semaine, Larry Moran sur son excellent blog listait en février 2008 tout ce que nous savions sur la composition fonctionnelle du génome humain, et arrivait aux totaux suivants :
Total Essential/Functional (so far) = 8.7%
Total Junk (so far) = 65%
Unknown (probably mostly junk) = 26.3%

Wahou il doit être très surpris de lire une estimation de fonctionnel stricto sensu entre 9% et 20%. Tiens, non.

Je n'ai pas le temps de lister toutes les réactions que j'ai lues à ce "80% de fonctionnel" couplé à "surprise ! pas tout le non codant est pourri", mais disons que ça a bardé sur Twitter et les blogs scientifiques dès quelques heures après la publication et ça ne s'est pas calmé.

Je voudrais maintenant traiter un autre point assez rapidement, c'est la politique de publication d'ENCODE. D'abord, c'est tout libre d'accès, ouf. Pour l'anectode ensuite, Casey Bergman s'est amusé à calculer que le temps cumulatif perdu pour que tous les papiers sortent en même temps (un papier a été retardé un mois, un autre deux mois, ça fait trois mois de cumulé...) est d'un an de dix ans (corrigé, désolé).

Plus important, les papiers publiés dans trois journaux différents, qui ont des éditeurs différents (Nature publishing group, BMC et Cold Spring Harbor press), ont réussi à mettre ensemble une vue transversalle des articles par "fils", ou "threads" :

A gauche, une série de thèmes qui se retrouvent dans différents articles. A droite, lorsque l'on choisit un thème, sont mis en avant les articles pertinents. Si on clique sur le thème, on obtient tous les extraits d'articles et les figures correspondantes, à la suite. C'est génial.


Râlage quand même : les "Supplementary Information", tous les résultats complémentaires et détails des méthodes qui sont en annexe, sont exclus de ce système. Du coup, c'est loin d'être complet, et ça reste malheureusement prisonnier du modèle de publication classique en partie.


Il y a aussi une App iPad, mais autant que je puisse juger c'est pareil que la page web, mais en App iPad.


Autre innovation : ils ont rendu disponible une machine virtuelle, qui permet d'installer localement tous les programmes utilisés, les jeux de données au bons formats, les détails d'installation informatique, etc, permettant de reproduire leurs analyses. Les données ne sont pas complètes dans cette machine virtuelle (15 Tb, vous vous rappellez ?), mais c'est clairement un énorme progrès dans la diffusion des méthodes bioinformatiques et leur standardisation.

Et puis voilà, y a encore beaucoup à dire, mais je n'ai pas le temps. A la prochaine.

Mise à jour : excellent compte-rendu qui couvre certain des mêmes points, et d'autres, par Malicia sur bioinfo-fr.net.