Hoy por Hoy BilbaoHoy por Hoy Bilbao
Actualidad
De las Ondas a la Red

Quince años después, Facebook

Lorena Fernández, colaboradora de la sección 'De las Ondas a la Red' en Hoy por Hoy Bilbao, repasa los hitos de una red controvertida y con unos beneficios que superan los 22.112 millones de dólares, un 39 por ciento más que en 2017.

Cadena Ser

 Un lunes más, la sección tecnológica de Hoy por Hoy Bilbao, se ha centrado en  volcar en las ondas lo que ocurre en la red y en este 4 de Febrero, la efeméride obligada a repasar con nuestra colaboradora, Lorena Fernández, lo que ha supuesto nuestra vida después de integrar en nuestro día a día lo que hace 15 años ideó un universitario sobre el que siguen corriendo ríos de tinta. Aquí o dejamos cómo lo ve, valora y analiza Lorena echando, por supuesto, la mirada hacia atrás:

Quince años de Facebook, por Lorena Fernández.

"Allá por 2004, un estudiante de la Universidad de Harvard, Mark Zuckerberg, junto a dos amigos decidió empezar a construir una comunidad virtual. Originalmente esta red social fue creada exclusivamente para la comunicación entre estudiantes estadounidenses. De ahí proviene su nombre, ya que es el mismo que recibe el boletín que las universidades entregan a estudiantes que comienzan una nueva carrera para que se conozcan entre ellos (libro de caras). Es por esta razón que hasta 2006 no estaba permitido el registro ni la creación de cuentas a personas que no contasen con una dirección de correo electrónico de una universidad norteamericana.

Sin embargo, tras comprobar el éxito que estaba cosechando, se eliminó la restricción para poder ampliar horizontes publicitarios. Esta decisión levantó una cierta polémica entre los usuarios que ya estaban haciendo uso de la plataforma, dado que se perdía la esencia estudiantil. Pero como diría Quevedo: Poderoso caballero es don dinero.

Por el camino, el imperio Facebook ha ido creciendo tirando de billetera. Tras no conseguir enganchar con un público joven, se hizo con los servicios de WhatsApp e Instagram. Y a pesar de los escándalos que han amenazado al imperio estos últimos tiempos, ha cerrado 2018 con un aumento de beneficios: 22.112 millones de dólares (un 39 % más que en 2017), y con más usuarios a nivel global.

El escándalo más fuerte al que se han tenido que enfrentar quizás sea el que les azotó en marzo de 2018, cuando se descubrió que se habían filtrado datos de 50 millones de perfiles de usuarios de la red social a la consultora Cambridge Analytica, que podría haberlos aprovechado para propiciar la victoria de Donald Trump en las elecciones presidenciales de Estados Unidos en 2016.

Pero mucho antes ya dejaron claro aquello de que “Si el producto que recibes es gratis, igual el producto eres tú”. Cuando entramos a la red social, no vemos las últimas publicaciones de nuestros contactos y las páginas a las que les hemos dado “Me gusta”. Facebook tiene un algoritmo que nos muestra solo algunas actualizaciones y que cambia constantemente. Y por supuesto, ese algoritmo es como la fórmula de la Coca Cola: algo secreto que solo ellos conocen. Se supone que lo que hacen es mostrarnos con mayor frecuencia contenidos de cuentas con las que interactuamos de manera regular y que la plataforma estima que son más relevantes para nosotros. Recalco lo de “se supone”. Entenderéis al finalizar la lectura por qué.

El hecho de que nos oculte algunas cosas y nos muestre otras, hace que seamos cada vez más homofílicos. O eso muestra un estudio de los científicos sociales de Facebook publicado en la revista Science, donde se habla de una burbuja ideológica. El análisis de más de 10 millones de usuarios activos y su interacción con noticias políticas arroja que solo un 22% de personas progresistas ven contenidos conservadores y, a la inversa, un 33% de conservadores hacen lo correspondiente con noticias progresistas. Por supuesto, el estudio exime de culpas al algoritmo y enuncia que la responsabilidad está en los propios usuarios. Según ellos, si las personas no escogieran a sus amistades y fuera algo aleatorio, los porcentajes de contenido visto contrario a sus ideas ascendería hasta el 45% en el caso de los progresistas y el 40% en el de los conservadores. Tras leer el estudio, el primer sudor frío que recorrió mi espalda no estaba vinculado con esta burbuja ideológica, sino más bien con cómo podía Facebook saber la ideología política de 10,1 millones de usuarios.

Sencillo: en el caso de este estudio, la muestra se compone de los que se han autodefinido ideológicamente motu propio. Sin embargo, recientemente se ha publicado que usan otros artificios para sacar esa información. Por ejemplo, se rumorea que la campaña Celebrate pride que nos permitía poner nuestro avatar con la bandera arcoíris tras la legalización del matrimonio homosexual en Estados Unidos, realmente buscaba recopilar información privada sobre la inclinación política, sexual e ideológica de los usuarios.

Y es que acciones como esos cambios de avatar, dar “Me gusta” a publicaciones o páginas concretas, acceder a perfiles y fisgonear… son rastros que dejamos para Facebook y que pueden ser estudiados a posteriori. Ese fue el caso de un paper presentado por Lars Backstrom, investigador de la propia compañía y Jon Kleinberg, de la Universidad Cornell. A través de esta publicación detallan cómo, dependiendo del contenido, la frecuencia de la publicación de los usuarios y los contactos en común, una pareja puede terminar enamorándose. El que tengan muchos amigos en común, aparezcan en muchas imágenes juntos y comiencen a revisar mutuamente el perfil de la otra persona, son signos claros para el gigante de las redes sociales de que el amor surgirá entre ambos. Las rupturas también son objeto de estudio. Nos avisan de que algo marcha mal cuando ambas personas dejan de aparecer juntas en las fotografías y de comentar las actualizaciones del otro.

Pero no se han quedado como meros espectadores para analizar desde fuera lo que hacemos los usuarios dentro. Se han atrevido también a intervenir para determinar entonces nuestras reacciones. También desvelaron que en 2012 habían manipulado el manido algoritmo para observar si existe un contagio emocional entre las personas, usando una muestra de 700.000 usuarios. Para ello, se mostró a un grupo noticias positivas mientras que a otro se hacía lo contrario. Una de las conclusiones fue que los usuarios estudiados cambiaron su conducta: los que vieron más publicaciones negativas, usaron palabras más pesimistas al cabo de una semana y viceversa.

Lo mismo hicieron durante las elecciones legislativas de Estados Unidos en el 2000 y las europeas en el 2004. Incluyeron un botón “Voy a votar” facilitando a los usuarios mostrar esta acción a sus contactos. La intención de este señuelo era reducir el número de abstenciones. Y así sucedió según un estudio que publicaron posteriormente en la revista Nature: sus datos les permitían asegurar que el 0,4% de los votantes habían acudido al colegio electoral después de ver en Facebook ese botón.

Y es que, ¿sabías que Facebook guarda cosas que ni has publicado? La recopilación de datos de Facebook comienza antes de le des al botón de “Publicar”. Mientras estás preparando tu mensaje en la caja de publicaciones, Facebook ya recoge tus pulsaciones de teclado. También almacena imágenes que no subimos pero que automáticamente coge la app del carrete de nuestro móvil para sugerirnos su publicación. ¿Y cómo sabemos eso? Porque Facebook ha usado esos datos, por ejemplo, en esta investigación de autocensura (PDF).

We report results from an exploratory analysis examining “last-minute” self-censorship, or content that is filtered after being written, on Facebook. We collected data from 3.9 million users over 17 days and associate self-censorship behavior with features describing users, their social graph, and the interactions between them. Es decir, que si has escrito algo como, “Odio a mi jefe.”, y en el último momento te arrepentiste y no lo publicaste, Facebook lo sabe.

Según los datos de este estudio, un tercio del contenido que se genera en la red social, no llega a publicarse porque los usuarios deciden retirarlo en el último momento. Es más habitual la autocensura de posts (33% de las ocasiones), que de comentarios (13% de las veces). También que los hombres se autocensuran más que las mujeres, pero solo en lo que respecta a la generación de nuevo contenido porque en los comentarios, ambos se retractan en la misma proporción.

En ocasiones, cuando me encuentro perdida y no sé qué me pasa, me dan ganas de preguntarle a Facebook. Estoy convencida de que me conoce mejor que yo misma."

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00