lundi 30 juin 2014

Vous utilisez Facebook, vous êtes donc volontaire pour être manipulé expérimentalement #FacebookExperiment

[caption id="attachment_2181" align="aligncenter" width="110"]cliquez sur l'image cliquez sur l'image[/caption]

[Si vous tombez sur ce billet maintenant, sachez qu'il y a une suite ici.]

Je ne sais pas pourquoi on se fait ch..r dans les hopitaux universitaires du monde entier à réfléchir à des consentements éclairés qui couvrent tous les cas de figure tout en permettant aux patients de comprendre de quoi il retourne avant de donner leur sang. Facebook et le journal de l'académie américaine des sciences (PNAS = Proceedings of the National Academy of Sciences USA) viennent de nous montrer que ce n'est absolument pas nécessaire. On peut apparemment manipuler les gens expérimentalement comme bon nous semble du moment qu'ils ont signé un accord de "conditions générales d'utilisation", vous savez le long truc légal sur lequel vous cliquez toujours "oui" pour accéder à la suite.

Dans une étude publiée le 17 juin dans PNAS donc, les gens de Facebook ont fait exactement ça : manipuler les gens puisqu'ils étaient apparemment d'acord, ayant signé les CGU (EULA en anglais). L'étude a commencé à faire pas mal de bruit à ce que j'ai vu ce week-end, et voici ce que j'en sais pour le moment. (Ca y est, pendant que je préparais le billet ça a atteint les médias français.)

D'abord, le papier est open access, donc vous pouvez le lire : Kramer et al 2014 Experimental evidence of massive-scale emotional contagion through social networks PNAS 111: 8788–8790.

Quand on dit qu'ils ont manipulé les gens, voici un extrait de l'article :
The experiment manipulated the extent to which people (N = 689,003) were exposed to emotional expressions in their News Feed. This tested whether exposure to emotions led people to change their own posting behaviors, in particular whether exposure to emotional content led people to post content that was consistent with the exposure—thereby testing whether exposure to verbal affective expressions leads to similar verbal expressions, a form of emotional contagion. People who viewed Facebook in English were qualified for selection into the experiment.

Mais la phrase clé est celle-ci :
it was consistent with Facebook’s Data Use Policy, to which all users agree prior to creating an account on Facebook, constituting informed consent for this research.

En d'autres termes, ils ont manipulé les gens à des fins expérimentales en considérant que le fait d'avoir accepté les conditions générales d'utilisation de Facebook suffit comme consentement éclairé (si si ils écrivent "informed consent"). Ceci alors que celles de Facebook sont connues pour être particulièrement peu claires et succeptibles de changer.

Autre truc bizarre : l'étude a été faite par des personnes affiliées à Facebook, et ils déclarent no conflict of interest. Il me semble que Facebook les paye, et bénéficie des résultats de cette étude, non ?

Il y a un énorme débat en anglais que je n'ai pas lu ici, pour ceux qui ont le temps. Aussi à l'heure où j'écris ces lignes, la discussion démarre juste sur PubPeer, un forum dédié aux problèmes avec les articles scientifiques. Et beaucoup d'activité (avec comme d'hab pas mal de bruit) sur Twitter sous #FacebookExperiment (mais peu en français pour autant que je vois). Un bon point de vue sur le blog Pharyngula aussi (qui cite notamment des passages clés des instructions aux chercheurs). Oh et un autre point de vue documenté intéressant ici.

Un échange que je trouve éclairant sur Twitter :


ToU = terms of use. Les deux sont des chercheurs en génomique / bioinformatique. Et justement en génomique on a de gros problèmes avec le consentement éclairé, parce qu'on a souvent des possibilités techniques qui apparaissent en cours d'expérience qui n'existaient pas au départ, donc il est très difficile d'informer. Quand je pense que je me suis embêté dans des discussions avec des avocats et philosophes sur le sujet (et je ne travaille même pas directement avec des données cliniques), alors qu'il suffisait de leur faire signer un accord général d'utilisation de la médecine qui dise en petit "et on fera ce que bon nous semble avec vous, vos données et votre santé", signez ou vous ne serez pas soignés. Trop facile.

Yaniv Erlich continue à défendre l'étude, ou en tous cas à critiquer ses critiques, sur Twitter. Il a notamment fait remarquer les articles plus anciens suivants, qui manipulent aussi les utilisateurs Facebook :

Aral & Walker 2012. Identifying Influential and Susceptible Members of Social Networks. Science 337: 337-341

Dans celui-ci ils ont recruté des utilisateurs par publicité à utiliser une application de partage d'opinions sur le cinéma. Je ne trouve nulle part dans l'article ou les méthodes supplémentaires de mention de "consent" (informed ou pas). Par contre la manipulation n'était pas directe : ils ont juste observé a posteriori comment les gens étaient influencés par les opinions de leurs amis, mais ces opinions étaient authentiques.

Bond et al. 2012. A 61-million-person experiment in social influence and political mobilization. Nature 489: 295–298

Ici c'est plus inquiétant, ils ont envoyé ou pas à des gens des messages de mobilisation politique pendant des élections, pour voir s'ils iraient davantage voter, avec un recrutement qui rappelle celui de l'expérience récente de Facebook :
To test the hypothesis that political behaviour can spread through an online social network, we conducted a randomized controlled trial with all users of at least 18 years of age in the United States who accessed the Facebook website on 2 November 2010, the day of the US congressional elections. Users were randomly assigned to a ‘social message’ group, an ‘informational message’ group or a control group. The social message group (n = 60,055,176) was shown a statement at the top of their ‘News Feed’. This message encouraged the user to vote, provided a link to find local polling places, showed a clickable button reading ‘I Voted’, showed a counter indicating how many other Facebook users had previously reported voting, and displayed up to six small randomly selected ‘profile pictures’ of the user’s Facebook friends who had already clicked the I Voted button (Fig. 1). The informational message group (n = 611,044) was shown the message, poll information, counter and button, but they were not shown any faces of friends. The control group (n = 613,096) did not receive any message at the top of their News Feed.

A nouveau, aucune mention du terme "consent". Juste ceci dans les méthodes supplémentaires :
The research design for this study was reviewed and approved by the University of California, San Diego Human Research Protections Program (protocol #101273).

C’est un peu court, jeune homme ! On pouvait dire… Oh ! Dieu !… bien des choses en somme sur le fait d'inciter ou décourager des gens de voter dans une élection fédérale.

Finalement, Yaniv signale celui-ci, qui ne manipule pas à proprement parler les utilisateurs, mais étudie juste l'effet d'un changement dans Facebook, qui proposait aux gens d'afficher leur statut de donneur d'organes, ce qui me parait légitime :

Cameron et al. 2013. Social Media and Organ Donor Registration: The Facebook Effect. American Journal of Transplantation 13: 2059–2065

Mise à jour : Un bon article sur Forbes, mis à jour en temps réel, avec les réactions de Facebook et des clarifications sur les autorisations et les responsabilités. Ca n'améliore pas franchement les choses pour Facebook.

Mise à jour : Discussion sur le forum Linuxfr. Points de vue de geeks. :-)

5 commentaires:

  1. […] Je ne sais pas pourquoi on se fait ch..r dans les hopitaux universitaires du monde entier à réfléchir à des consentements éclairés qui couvrent tous les cas de figure tout en permettant aux patients de comprendre de quoi il retourne…Read more → Continue...  […]

    RépondreSupprimer
  2. En tant que quelqu'un qui participe dans l'écriture des consentements éclairés pour des études cliniques, je peux dire que ça n'a rien à voire avec des termes d'usage que personne ne lit. Les consentements éclairés pour des études cliniques sont très clairs et précis par rapport à ce qui va être effectué, et sont écrits de manière qui permette à des non spécialistes (des patients) de comprendre ce qui est écrit. Sinon, c'est la compagnie pharmaceutique qui serait après punissable pour avoir effectué des recherches non décrites aux patients. En plus, les patients dans les études cliniques lisent les consentements éclairés, alors que j'imagine que très peu d'utilisateurs de facebook (dont je ne fait pas partie) ont lu les termes d'usage.

    RépondreSupprimer
  3. De toute évidence, la notion de "consentement éclairé", qui était déjà sujette à caution, aura besoin d'un sérieux dépoussiérage dans les études "de terrain" où le "de terrain" veut dire Facebook ou Google.

    RépondreSupprimer
  4. Pour faire suite au commentaire de Marc sur le site de l'ASP, je poserais une question, ou plutôt deux. 1) Je présume que l'obligation de consentement préalable est, en médecine et en génétique/génomique, un absolu qui ne souffre d'aucune exception (pour l'instant, je ne peux penser à aucune) et ce, pour des raisons évidentes. Exact?
    2) Par contre, est-on si sûr que ce soit un absolu en psychologie et plus encore, à l'heure de Facebook?

    D'un côté, le simple fait de prévenir qqu'un qu'il sera l'objet d'une expérience peut fausser les résultats. De l'autre, quantité d'expériences en psychologie consistent à jouer avec les émotions en lui faisant croire qu'il teste quelque chose alors qu'on teste ses réactions à autre chose. Il a beau avoir signé un formulaire de consentement avant, il y a tromperie, n'est-ce pas?

    Et enfin, il y a le cas de Facebook et des réseaux sociaux. Ce formulaire démesurément long que l'on signe et que personne ne lit, dont parle Marc: je comprend que les chercheurs veulent être plus éthiques que Facebook, heureusement. Mais ce serait un peu court que de prétendre que la personne est d'accord pour céder ses photos, ses textes, sa vie privée, mais qu'elle est outrée à l'idée qu'on ait jonglé avec ses émotions. Facebook au complet est une machine à jongler avec les émotions. La publicité télé au complet en est une. L'idée du formulaire de consentement demeure louable, mais est-elle toujours adaptée au contexte?

    RépondreSupprimer
  5. […] commentaire de Pascal Lapointe (de l’ASP) sur le billet précédent apporte un éclairage intéressant : […]

    RépondreSupprimer