jueves, 21 de julio de 2022

"Manipulados. La batalla de Facebook por la dominación mundial", de Sheera Frenkel y Cecilia Kang (2021)

 Resumen del libro "Manipulados. La batalla de Facebook por la dominación mundial", de Sheera Frenkel y Cecilia Kang (2021)

Link original y actualizado en:

https://evpitasociologia.blogspot.com/2022/07/manipulados-la-batalla-de-facebook-por.html

Resumen elaborado por E.V.Pita, doctor en Comunicación Contemporánea y licenciado en Derecho y Sociología

Sociología, redes sociales, sociedad de la información, Internet, privacidad

..................................................................................................................................................................

500 RESÚMENES DE LIBROS  DE ECONOMÍA Y SOCIOLOGÍA

"DE ADAM SMITH A LA INFLACIÓN EN POSTPANDEMIA (1776-2023)"

por E.V.Pita (2023)

Link al compendio de resúmenes:

Descargar en PDF en este enlace:
....................................................................................................................................................

Ficha técnica:

Título: "Manipulados"

Subtítulo: La batalla de Facebook por la dominación mundial

Título original en inglés: An Ugly Truth. Inside Facebook's Battle for Domination

Autoras: Sheera Frenkel y Cecilia Kang

Primera edición en inglés: 2021

Edición en español: Barcelona, Penguin Randon House

Páginas: 366

.......................................................................................................................

Biografía de las autoras Sheera Frenkel y Cecilia Kang

Sheera Frankel es periodista, vive en San Francisco y escribe sobre ciberseguridad en The New York Times. Durante más de una década fue corresponsal en Oriente Próximo escribiendo para BuzzFed, NPR, The Times y los periódicos del grupo McClatchy.

Cecilia Kang vive en Washington DC y escribe sobre tecnología y regulación tecnológica en The New York Times. Antes trabajó durante diez años en The Washington Post cubriendo temas de tecnología y negocios.

Frenkel y Kang han formado parte del equipo de periodistas de investigación finalistas al Premio Pulitzer en la categoría de reportajes nacionales. El equipo ganó el premio George Polk por el mejor reportaje nacional y el premio Gerald Loeb por la mejor investigación periodística.

.......................................................................................................................

Texto de la solapa

"El libro que Facebook no quiere que leas.

Facebook lleva varios años en el ojo del huracán. Desde que estallaron los escándalos de Cambridge Analytica y la campaña de desinformación rusa, ha intentado esquivar una avalancha de controversias y demandas relacionadas con su estrategia empresarial. Mientras la plataforma presume de crear un mundo interconectado donde poder expresarse con libertad, viola la privacidad de sus usuarios y propaga una epidemia de desinformación tóxica y dañina.

A partir de una minuciosa investigación y tras haber entrevistado a legisladores, inversores, académicos, ejecutivos y empleados del gigante de Silicon Valley, Sheera Frenkel y Cecilia Kang, dos prestigiosas periodistas de The New York Times, se adentran en los entresijos de una empresa rodeada de siempre de un gran secretismo y cuya cultura exige una lealtad ciega, y revelan las operaciones ocultas y las luchas de poder de la red social por excelencia.

Mucha gente considera que Facebook ha perdido el rumbo, pero esta explosiva investigación demuestra cómo los pasos en falso de los últimos años no son una anomalía, sino una consecuencia inevitable. Mark Zuckerberg y Sheryl Sandberg emprendieron juntos la construcción metódica y deliberada de un modelo de negocio despiadado basado en el crecimiento ilimitado. Cegados por su propia ambición y arrogancia, esta no es la clásica historia de Frankenstein, el monstruo que se liberó de su creador, sino de dos personas que han decidido mantenerse al margen mientras su imperio sirve de altavoz a criminales y regímenes corruptos de todo el mundo con consecuencias devastadoras.

Sería muy fácil reducir la historia de Facebook a la de un algoritmo fallido. La verdad es mucho más compleja y este libro es la prueba definitiva.

.......................................................................................................................

ÍNDICE

Prólogo: a cualquier precio

1. No hay que tentar a la suerte

2. El próximo bombazo

3. ¿En qué estamos metidos?

4. La exterminadora de ratas

5. El canario salvavidas

6. Una idea verdaderamente descabelladas

7. La empresa por encima del país

8. Borrad Facebook

9. Piensa antes de compartir

10. Un líder para tiempos de guerra

11. La Coalición de la voluntad

12. Amenaza existencial

13. La interferencia oval

14. Un bien para el mundo

Epílogo: La estrategia a largo plazo

...............................................................................................................................

RESUMEN

Las autoras Sheera Frenkel y Cecilia Kang concluyen que a lo largo de 16 años, Facebook obtuvo grandes ganancias de la red social que se han gestado repetidamente a expensas de la privacidad y seguridad del consumidor y la integridad de los sistemas democráticos. Dicen que Mark Zuckerberg y su número 2 Sheril Sandberg crearon un negocio que se ha convertido en una máquina imparable de generar beneficios y que podría ser demasiado poderosa para disolverla. Creen que los cambios difícilmente vendrán de dentro: "El algoritmo que sirve al corazón de Facebook es demasiado poderoso y lucrativo". Además, añaden, la plataforma se cimienta en una dicotomía fundamental y tal vez irreconciliable: su supuesta misión de mejorar la sociedad conectando a la gente a la vez que obtiene beneficios de ella. "Es el dilema de Facebook y su fea realidad", dicen las autoras.

El libro deja claro el esfuerzo de Facebook para convertirse en una plataforma gigante que unió a gran parte del mundo en una conversación pero que, en afán de ganar dinero, dejó pasar muchos errores de diseño, por no decir legales (privacidad, altavoz de fake news que incitan a la violencia, soporte para ideas políticas extremistas y violentas, manipulación de elecciones). Por otra parte, Facebook, al convertirse en un coloso, aprovechó su poder para transformarse en un monopolio comprando apps como WhatsApp e Instagram. Luego, para evitar la legislación antimonipolio que pretendía trocearlo, alegó ser un negocio demasiado complejo para dividirlo. El dirigente de Facebook, a pesar de tener a todo un lobby en Washington, que defendía sus intereses, tuvo que comparecer varias veces en el Congreso para responder sobre infiltraciones rusas o el escándalo de Cambridge Analytica. Su equipo de abogados lo entrenó para responder adecuadamente. La primera pregunta que le hicieron los congresistas fue: "¿Podría usted compartir con nosotros en qué hotel va a dormir esta noche?". Zuckerberg respondió: "No, es algo privado".

 La gran ejecutiva de Facebook es Sheryl Sandberg, un puño de hierro que procedía de Google y supo redimensionar la compañía a escala planetaria, de forma que pasó de tener 10 millones de usuarios a 2.000 millones. Una fórmula del éxito fue vender a los publicistas la posibilidad de acceder a la privacidad de los usuarios de la plataforma para venderles productos. La línea de negocio era clara: más usuarios, más beneficios. Por eso, se dio prioridad a que los usuarios leyesen en su Feed News (una idea tecnológica que se le ocurrió a Zuckerberg para que las publicaciones de tus amigos apareciesen en tu muro y este se refrescase continuamente)

Las autoras narran las aventuras del fundador Zuckerberg y la ejecutiva Sandberg desde sus tiempos universitarios, en facultades de élite. En los primeros años, su sueño era llegar al millón o dos millones de usuarios, luego pasar de mil millones a 2.000 millones de amigos (para ello, Facebook se expandió hacia países en desarrollo), y algún día, llegar a los 5.000 millones. Se trataba de crecer y crecer mientras se amontonaban los problemas: la injerencia rusa en las elecciones del 2016 y en el Brexit, disturbios racistas generados por mensajes de odio, el genocidio de Indonesia contra una minoría musulmana basado en "fake news", el asalto al Capitolio por seguidores de Trump... El problema, dicen las autoras, es que varios empleados de Facebook avisaron antes de los peligros que generaban esos mensajes pero la cúpula hizo oídos sordos y nadie los eliminó, lo que algunas veces culminó en tragedias o asesinatos. Zuckerberg siempre alegó que respetaban el derecho a la libertad de expresión (salvo delitos infantiles, violencia explícita, etc).

Otro frente de batalla fueron los robos de datos a usuarios para segmentarlos en perfiles de personalidad y hacer campañas publicitarias. Zuckergerg había apostado por un producto que permitía a las empresas publicitarias extraer datos de los clientes. Fue una tecnología que aprovechó Cambridge Analytica para hacerse con información de las cuentas de 40 millones o más de estadounidenses para relanzar la campaña de Trump, que al final ganó las elecciones del 2016.

 Por otra parte, el jefe de ciberseguridad Stamos descubrió que una granja de trolls de San Petersburgo, perteneciente al gobierno de Rusia, estaba comprando anuncios en Facebook y creaba una red de grupos para alcanzar a varios millones de usuarios. La intención de la injerencia rusa era manipular la conducta de los votantes a la hora de elegir a un candidato o de abstenerse. [Nota del lector: Diversos autores, sobre todo Zuboff, avisan de que la manipulación conductal es una tecnología que es difícil de entender porque no se conoce, razón por la que pasa desapercibida pero que conduce a los usuarios de las redes, a través de mensajes que te hacen sentir triste o contento, a votar, a no ir a votar o a cambiar el voto]. 

Además, Stamos descubrió que la misma agencia rusa estaba filtrando correos interesados en vísperas de varias campañas electorales en Occidente, caso de Francia, pero avisaron a Macron, o a Hilary Clinton (esta fue defenestrada por correos filtrados que la ponían en evidencia). Stamos peleó por mejorar la ciberseguridad pero el problema era de fondo: la cúpula de Facebook eliminó mucha propaganda rusa pero siempre quedaba algo precisamente porque el algoritmo lo permitía. Al ver que nadie iba a hacer nada al respecto, Stamos dimitió. 

Una de las cuestiones que se aborda en el libro es la decepción de muchos trabajadores al ver que Facebook miraba hacia otro lado cuando había problemas de delitos de odio o privacidad. Muchos trabajadores descontentos filtraron documentos a la prensa y fueron despedidos por deslealtad. Había una informática dedicada a ello: la llamada "exterminadora de ratas". Por otra parte, los empleados podían chatear varias veces al mes con el propio Zuckerberg: el grupo votaba varias preguntas y el jefe las contestaba. Pero con los años creció el descontento porque veían que detrás de un proyecto ilusionador había montado un sistema "autoritario" (bajo el puño de hierro de Sandberg) y que no se preocupaba por el usuario (de lo que se trataba era de exprimirlo) sino de ganar más y más dinero. En el 2020, llegaron a facturar 86.000 millones de euros en publicidad. Todos los años estaban creciendo.

Cuando fue la pandemia del covid, Facebook ya lo sabía unas semanas antes (gracias a los informes de alerta que le enviaron sus fundaciones y oenegés en Asia) y había ordenado a sus empleados no esenciales comenzar a teletrabajar.

Una metáfora para entender cómo funciona el algoritmo de Facebook

[Nota del lector: Este párrafo no forma parte del libro. Lo he puesto para que se entienda cómo desde el libro ven el funcionamiento del algoritmo.

Para entender la política de Facebook sobre las "fake news" o delitos de odio, hay que valerse de una metáfora que me he inventado: Imaginen ustedes a un tabernero que ha montado un bar confortable donde la gente charla de todo tipo de temas. En una mesa, unos ladrones planean un robo, en otra, un grupo coral queda para ensayar, en otra, una familia propone hacer un picnic, ... La idea de Zuckerberg es que la libertad de expresión es sagrada y que su misión es ayudar a que la gente esté en contacto sin interferir porque no es quién para decidir qué es verdad o no. Al igual que en un bar, ningún tabernero echa del local a un cliente por hablar de lo que sea, esté de acuerdo o no con él, a no ser que se ponga muy violento y tenga que llamar a la policía.

Si volvemos al bar, vemos que el público se está arremolinando en torno a una mesa: allí un viejo chismoso que cuenta historias difamatorias de políticos de otro partido, conspiraciones, temas raciales... Cada vez hay más público arremolinado, especialmente gamberros y camorristas, y lo que piensa el tabernero no es: "debo echar del bar a este viejo porque está divulgando mentiras que podrían sembrar la violencia" sino que piensa: "Hoy vendo el triple de cervezas".  Al día siguiente, sienta al chismoso en una mesa más grande para que gane más público porque es una atracción gratuita que beneficia a su negocio hostelero. Un día, una turba ciega sale enfurecida del bar y acosa la casa de un político, dan una paliza a un granjero inocente porque circulan rumores de que en su sótano almacena grandes alijos de droga o invaden la Alcaldía. Todos saben quién es el cliente que vierte esos mensajes tóxicos pero nadie hace nada por echarlo del bar porque cada día entra más clientela a escuchar sus peroyatas. A mayores, otros contadores de rumores llegaron atraídos al bar porque rebosaba de clientes y aprovecharon esa gran audiencia para pedir mesa y difundir sus mentiras y mensajes de odio.

A todo ello se suma, que entre los clientes del bar hay comerciales y espías extranjeros que sonsacan datos de los otros clientes, oyen sus conversaciones, hacen fichas de ellos, los clasifican a fin de enviarles propaganda,... El tabernero lo sabe pero no se inmiscuye pues esos clientes también piden cervezas y están mucho tiempo en el local, y hacen gasto. Tras las protestas de algunos afectados, coloca mamparas en las mesas para garantizar la "privacidad"]

No sé si se ha entendido la metáfora que he puesto pero lo que las autoras vienen a decir es que Zuckenberg y Sandberg idearon un algoritmo que potencia las "fake news", no porque les gusten las mentiras sino porque dan mucho más público y tráfico, lo que genera más beneficios. A decir verdad, quiénes son ellos para decir que algo es verdad o mentira, lo deciden los usuarios con sus comentarios. Pero todo ese debate que generan las noticias tóxicas aumenta las visualizaciones y escala puestos en el ránking de los más vistos, por encima de las preocupaciones por el clima, la igualdad y otras buenas causas. El problema ha surgido cuando algunos han aprovechado la plataforma social como altavoz para cometer fechorías: las autoras citan la supuesta injerencia rusa en las elecciones del 2016 y el uso de datos sin permiso de Cambridge Analytica ].


No hay comentarios:

Publicar un comentario