samedi 24 décembre 2011

Joyeuses fêtes

cliquez sur l'image


cliquez sur l'image
cliquez sur l'image

vendredi 23 décembre 2011

Il faut fumer en sautant sans parachute, ou la difficulté d'être objectif

Cliquez sur l'image
Vous avez peut-être entendu parler dans les médias d'un papier scientifique qui se proposait de montrer que de fumer des cigarettes est bon pour les coureurs de fond. Dans le Canadian Medical Association Journal, classé 9ème parmi les journaux médicaux au niveau mondial.

L'auteur fait une revue de la littérature scientifique, et trouve qu'il a été établi que :
  • La consommation de tabac a été associée avec des niveaux élevés d'hémoglobine : de fumer au moins 10 cigarettes par jour est associé à une augmentation de 3,5% d'hémoglobine. Contrairement à un séjour en altitude, l'effet est durable ; et contrairement au dopage, c'est légal. L'effet semble même augmenter avec l'âge, les personnes âgées ayant fumé ayant des taux d'hémoglobine encore d'avantage élevés par rapport à la moyenne. De plus l'effet du tabac semble augmenté par "une thérapie complémentaire d'éthanol", à savoir la consommation d'alcool. (Tous ces résultats viennent d'une même référence sérieuse.)
  • Les fumeurs ont 50% de chances d'attraper une maladie chronique qui résulte en une augmentation du volume pulmonaires. Qui c'est d'autre qui a des gros poumons ? Les sportifs endurants. CQFD.
  • Les coureurs de fond bénéficient d'un poids plus faible. Qu'est-ce qui diminue l'appétit ? Le tabac. Qu'est-ce qui l'augmente ? L'exercice. Faites les maths.
L'auteur termine en discutant que les effets du tabac sont surtout visibles sur le long terme, or il existe des législations contraignantes rendant plus difficile l'accès au tabac pour les enfants dans la plupart des pays développés. Ces obstacles sont moins présent dans les pays pauvres qui justement gagnent souvent les sports d'endurance. Coïncidence ? Une étude sur le tabagisme enfantin chez les sportifs africains reste à faire.


Il s'agit bien entendu d'un exercice parodique, mais avec un fond sérieux. Il s'agit de montrer comment un choix biaisé des sources, et la mise en relation de faits établis mais qui ne sont pertinents, permet de faire dire à la littérature scientifique ce qu'elle ne dit pas. Ce qui peut être très dangereux quand on commence à s'intéresser aux effets des médicaments, à la pollution, à la chasse des espèces rares, etc. Dans ces cas, ça ne sera pas toujours une parodie, et les erreurs seront moins évidentes, surtout pour les lecteurs qui ne demandent qu'à être convaincus.


D'abord un autre exemple : Un article dans le British Medical Journal (à ce propos : cherche exemples d'humour scientifique intelligent d'origine francophone. Hmm. [Benveniste ne compte pas, c'était involontaire]) pose une question tout-à-fait pertinente : où sont les études randomisées double-aveugle sur l'usage du parachute pour prévenir les traumatismes et décès liés aux défis gravitationnels ? En effet on ne devrait jamais prescrire un traitement préventif sans de telles études, en médecine moderne (dite en anglais "evidence-based"). Il existe une évidence anectodique de personnes ayant tombé de haut sans parachute et ayant survécu. En moyenne on voit a posteriori que les personnes ayant sauté avec parachute ont survécu plus souvent et en meilleur état que celles ayant sauté sans parachute. Mais il y a un biais : les personnes qui sautent de haut sans parachute sont souvent en mauvaise santé (au moins psychologique) avant le saut, alors que les personnes qui sautent de haut avec parachute sont souvent en bonne santé. Donc il manque bien une étude sérieuse, randomisée, c'est-à-dire que les personnes sont distribuées au hasard entre les groupes de traitement (ici, avec ou sans parachute). Exercice à faire à la maison pour la prochaine fois : justifier rationnellement pourquoi ne pas faire d'étude randomisée ici, mais en faire pour l'acuponcture, l'homéopathie et le nouveau médicament de Servier.


Plus sérieusement, ces articles attirent l'attention sur des problèmes qui peuvent se poser dans la recherche scientifique (pourquoi scientifique ? dans la recherche en général). Par exemple, un article de International Journal of Obesity discute le bais White hat bias (pour lequel je n'ai pas trouvé de traduction en français - même les hacker White Hat restent en anglais sur le wikipedia francophone). Cela consiste à sélectivement choisir les information, ou les interpréter de manière biaisée, en raison de bonnes intentions. Exemples donnés dans le papier:
  • Deux papiers ont été publiés qui rapportent certains résultats significatifs, et d'autres non significatifs, sur la relation entre obésité et d'autres facteurs (mode de vie etc.). Parmi les articles citant ces études, plus des deux tiers les citent comme soutenant sans réserve ces relations, pourtant mal établies.
  • Les articles financés par l'industrie trouvent des effets moins négatifs de l'alimentation sur l'obésité, que ceux financés par le public. Il semble que cela soit du aux chercheurs publics ne publiant que des résultats très significatifs, alors que ceux financés par l'industrie publient aussi les études peu significatives.
  • De même, pour les études sur les effets de l'allaitement maternel, les études plus significatives sont d'avantage publiées. Dans ce cas, il n'y a apparemment aucun effet industriel, ou autre biais évident.
  • Des rapports supposément basés sur la recherche (par exemple Organisation mondiale de la santé) citent de manière biaisée les parties des articles qui soutiennent leur conclusion globale.

Ce qui est important dans ces exemples, c'est que les biais sont de bonne foi : les personnes veulent améliorer la santé ou l'information du public. Mais manquent de rigueur, là où la rigueur serait apparemment contradictoire avec leurs objectifs. C'est privilégier le court terme (tout-de-suite dire que les aliments gras c'est vil) sur le long terme (la crédibilité de la recherche, et notre meilleure connaissance du monde), à mon avis.

Tout ceci n'est pas sans rappeler les IgNobel : des résultats qui nous font rire, puis nous font réfléchir. Une excellente combinaison somme toute.

vendredi 9 décembre 2011

Moi je fais de la science, pas toi

cliquez sur l'image
Il y a un livre célèbre "The two cultures" sur la relation (ou absence de) entre les humanités et les sciences.

Mais y a aussi des différences de culture importantes au sein meme d'une science, comme la biologie. Une collègue m'a fait observer une fois la différence entre les séminaires (présentations orales de résultats) des biologistes moléculaires et des biologistes évolutifs.

Les biologistes moléculaires commencent par une présentation détaillée des données expérimentales (10 points bonus si vous présentez une nouvelle technique que vous avez mise au point), pour finir sur une éventuelle interprétation. Le message est clair : l'important c'est l'expérience, c'est les données, c'est cela qui prouve que ma présentation est intéressante et fait du sens. Ceci est de la science car il y a des expériences.

Les biologistes évolutifs commencent par une présentation détaillée des principes théoriques, des questions posées dans le domaines (10 points bonus si Darwin avait déjà évoqué le problème), pour ensuite présenter comment les données collectées permettent de répondre à la question. Le message est également clair : l'important c'est le cadre théorique et la question posée, qui guide la mise au point de l'expérience, c'est cela qui prouve que ma présentation est intéressante et fait du sens. Ceci est de la science car on teste des modèles.

Ce qui est aussi intéressant, c'est que dans bien des cas, les personnes concernées ne vont pas en conclure que tiens c'est rigolo on a des façons différentes de présenter, mais vont voir ceci comme une confirmation de ce dont ils se doutaient bien au fond, que les rigolos de l'autre coté du couloir ne sont pas vraiment des scientifiques comme nous.

vendredi 2 décembre 2011

Mieux vaut faire du vélo dans la bonne direction, que courir dans la mauvaise

Cliquez sur l'image
"Before, a leader was someone who could convince people to act in the absence of clear evidence. Today, it's someone who knows what questions to ask."

Extrait d'une interview de Alistair Croll sur O'Reilly Radar.

En contexte, il explique qu'avant on manquait d'information, et qu'il fallait avancer quand même. L'avantage allait à celui qui avançait pertinemment malgré le manque de données. Maintenant on a trop de données, et l'avantage va à celui qui sait les utiliser rapidement et à bon escient.


En bioinformatique, cela s'applique très bien, depuis l'analyse évolutive des données (ce que je fais d'habitude) jusqu'à la génétique médicale.

Par exemple dans le papier récent de Hernandez et al discuté sur le blog de nos étudiants, les auteurs ont utilisé des données déjà générées concernant les génomes de 179 humains, pour montrer que l'évidence de sélection naturelle que l'on pensait y trouver facilement n'y est pas évidente. Donc la sélection n'a pas été très forte, ou a peu affecté de gènes, dans notre évolution. Perso, je parie pour une sélection pas très forte sur beaucoup de gènes, mais on verra les prochaines analyses.

Autre exemple, on a utilisé plein de données publiques diverses pour montrer en 2008 qu'il y a peu de possibilités de changements évolutifs au début du développement embryonnaire vertébré, mais nettement plus à la fin.