Logo Computerhoy.com

Facebook manipuló los sentimientos de 700.000 usuarios

Facebook experimentó y manipuló los sentimientos de 700.000 usuarios sin avisar.
En un estudio que se ha hecho público hoy, Facebook reconoce que manipuló los sentimientos de casi un millón de usuarios, filtrando feedsAsegura que los feeds positivos ponen más contenta a la gente, pero también al revés¿Cuántas personas deprimidas recibieron feeds negativos manipulados?

Somos meros conejillos de Indias y experimentan con nosotros sin que lo sepamos.

Al parecer Facebooktiene el poder de ponernos más tristes o más contentos, y lo utiliza a su antojo sin avisarnos.

Por lo visto, ni siquiera hace falta que nos pregunten, porque en el contrato de creación de cuentas de Facebook (si, ese que nadie ha leído) le otorgamos permiso para hacerlo.

Y esa seguridad y omnipotencia le permite hacer público un estudio como el que revela la revista Forbes, sin inmutarse.

Durante toda una semana del mes de enero del año 2012, Facebook experimentó y manipuló los sentimientosde 689.003 usuarios, sin su consentimiento y sin avisarles a posteriori.

Todos sabemos que las emociones son contagiosas. Si una madre o un amigo están tristes, nosotros también nos entristecemos. Si un conocido está muy alegre, seguramente nos pondremos más contentos.

Facebook quiso estudiar si este contagio de lossentimientosse produce también online, en la distancia. En colaboración con la Universidad de California, programó un algoritmo que filtraba los feeds de noticias o mensajes que recibían los usuarios sujetos del experimento, para mostrar sólo mensajes positivos, o negativos.

Durante una semana, unas ratas de laboratorio, perdón, usuarios sujetos del experimento sin su consentimiento, recibieron únicamente feeds de noticias positivas de sus amigos y conocidos, del tipo "15 razones por las que reafirmar tu fe en la Humanidad".

Al contrario, otros sujetos fueron bombardeados con feeds negativos: un familiar ha perdido el trabajo, ha roto con su pareja, o no ha podido cumplir con sus resoluciones de Año Nuevo, como adelgazar o ahorrar más.

Hay que decir que todos eran mensajes reales enviados a cada usuario concreto por su lista de amigos, pero Facebook mostraba sólo los positivos, o sólo los negativos.

10 consejos para configurar tu privacidad en Facebook

La conclusión del estudio es que, efectivamente, aquellos que recibieron sólo feeds positivos durante varios días, escribían mensajes más alegres, y participaban más en la comunidad. Al contrario, aquellos que había sido bombardeados con mensajes negativos escribían comentarios más tristes, compartían noticias más deprimentes y participaban menos.

Asumiendo que las conclusiones del estudio son ciertas... ¿Se ha parado Facebook a pensar en las consecuencias de enviar sólo mensajes negativos a personas deprimidas, e incluso con tendencias suicidas?

"Probablemente nadie fue conducido al suicidio", medio bromea un profesor asociado al estudio, en un tuit.

Según los expertos que menciona la revista Forbes, este tipo de estudios con implicaciones emocionales requieren la supervisión de un comité ético, que al parecer Facebook si consultó. Pero también suelen acogerse a la Declaración de Helsinki, que indica que los sujetos delexperimentodeben ser informados de que participan en él, y de los riesgos emocionales. Nada de esto ha ocurrido.

La manipulación de las emociones a escala global es tan viejo como el Hombre, pues la han utilizado los políticos, o la prensa, desde hace siglos. Que lo lleve a cabo una red social sin avisar a los implicados, es preocupante.

Al parecer ni siquiera tenemos derecho a quejarnos, pues Facebook no leyó los mensajes que filtró, al usar un algoritmo, y el contrato de la red social especifica que nuestros datos pueden ser usados en estudios sociales.

Pero, ¿en algún párrafo de ese contrato se recoge que pueden manipular nuestros sentimientos, ponernos más tristes o más alegres, sin avisarnos, y con total impunidad?

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.