viernes, 26 de julio de 2019

"Datanomics", de Paloma Llaneza (2019)

Resumen del libro "Datanomics", de Paloma Llaneza (2019)

Resumen original y actualizado en:

Resumen elaborado por E.V.Pita, doctor en Comunicación y licenciado en Derecho y Sociología

Sociología, Big Data, análisis de datos, datos personales, privacidad

...............................................................................................................................................

Ficha técnica

Título: "Datanomics"

Subtítulo: Todos los datos personales que das sin darte cuenta y todo lo que las empresas hacen con ellos. Claves, consejos y herramientas para proteger tu privacidad

Autor: Paloma Llaneza

Fecha de publicación: 2019

Editorial: Deusto. Editorial Planeta, Barcelona

Páginas: 303

...............................................................................................................................................

Biografía oficial de la autora (hasta 2019)

Paloma Llaneza González es abogada, auditora de sistemas, consultora de seguridad y colaboradora habitual del diario El País. Ha orientado su ejercicio profesional hacia los aspectos legales y regulatorios de Internet (operadores, protección de datos, propiedad intelectual) así como a la seguridad TI.

También es CEO de Razona Legaltech, consultora tecnológica experta en identidad digital. También imparte clases en universidades y es editora internacional de diversas normas en ISO, CEN y ETSI. Su experiencia en cumplimiento legal, seguridad TI y firma electrónica es reconocida en toda Europa.

...............................................................................................................................................

Texto de la contraportada

¿Qué es más peligroso, una Roomba que barre tu casa o dejar el coche abierto?

¿Qué tienen en común tu cuenta de Instagram y la pulsera de actividad que llevas en tu muñeca?

¿Por qué a pesar de no haber impagado nunca una deuda, te pueden denegar un crédito?

¿Por qué te sientes intimidado cuando la Policía te identifica por la calle pero no te preocupa lo más mínimo el rastro de geoposicionamiento que dejas en tu móvil?

Llevas meses aceptando nuevas políticas de privacidad sin leer ni una. Subes fotografías a Instagram, publicas tus gustos y tendencias políticas en Twitter, compartes los recuerdos de tus vacaciones en Facebook y charlas por WhatsApp. Te bajas aplicaciones por doquier en el móvil y consultas temas a diario en Google. Y todo eso lo haces sin pagar ni un céntimo. Un poco raro ¿no? ¿Te has parado a pensar qué ganan esas empresas si te ofrecen el servicio sin coste? Que si el producto es gratis, quizá se deba a que el producto eres tú.

Datanomics te mostrará, con datos, informes y hechos comprobados lo que las empresas de tecnología hacen, realmente, con tus datos personales y cómo le sacan rentabilidad mientras tú, sin apenas darle importancia, se los regalas. La autora realiza una acertada radiografía sobre cómo se recaba y se usa nuestra información personal, y de cuáles han sido las consecuencias indeseadas de estos usos. De cómo hemos sido capaces de pasar de una economía productiva a una economía del dato, y cómo, para mantenerla, la sociedad que conocemos ha pasado a creer religiosamente que los datos son la solución y no el problema.

Ya lo decía Tim Cook: "El potencial de la tecnología se basa en la fe que la gente tiene en ella", Una fe que se asienta en el desconocimiento total y en la desinformación. Si quieres abrir los ojos antes de que sea demasiado tarde, este es tu libro.

...............................................................................................................................................

Texto de la solapa

Este libro revela cómo se usan los datos que nos rodean: los que damos, los que generamos con nuestra vida, los que facilitamos voluntariamente en algún momento, los que dejamos sin saberlo y los que se infieren de ellos.

Estos datos reflejan comportamientos y pensamientos profundos perfectamente identificados e individualizados, que facilitan a las empresas y a los Estados la toma de decisiones sobre nosotros, pues así saben lo que vamos a hacer en cada momento.

Y como nos conocen más que nosotros mismos, nos dirigen hacia una toma de decisión u otra. Salgamos de este negocio. Seamos libres.

...............................................................................................................................................

ÍNDICE

1. Dataísmo
2. Doppelgänger
3. Todo es percepción
4. Google, el memorioso
5. Casandra
6. Adiction by design
7. Manipulación by default
8. GAFA
9. Familia
10. Sensorium
11. Nuestros cuerpos, nosotros
12. Tracking
13. Dataveillance
14. Data breach
15. La gran mentira
16. Nada que ocultar

...............................................................................................................................................

RESUMEN

La autora comenta que la invasión de la privacidad y el análisis de datos masivo llegó con el iPhone y su almacenamiento de datos en la Nube en un entorno cerrado y archivos en remoto. "Empezamos a movernos con un espía en el bolsillo permanentemente conectado que nos permitía acceder a las recién nacidas redes sociales. Los datos empezaron a fluir sin control. Contábamos nuestra vida y nuestros dispositivos se chivaban del resto", indica Paloma Llaneza al inicio de su libro.

Llaneza señala que "somos datos", datos que nos definen con una precisión que supera la maternal y que, llevado al extremo y sin control, nos puede colocar, como individuos y sociedad, en una precaria situación.

La autora se pregunta cómo sería una economía de datos en la que los gigantes tecnológicos tuvieran que pagar por el acceso a estos. El problema es que los datos son reutilizables más de una vez.

Añade que en el 2008, las empresas empezaron a ofrecer servicios gratis pero, a cambio, se quedaban con todo tipo de datos de sus usuarios (recogida masiva de datos). Dice que la "ceder nuestros datos se usa como herramienta de control social en un mundo en el que todo lo que se almacena en un sistema informático es susceptible de ser robado". La autora explica cómo hemos sido capaces de pasar de una economía productiva a una economía del dato y cómo, para mantenerla, la sociedad que conocemos ha mutado con una fe casi religiosa en la que los datos son la solución y no el problema.

Paloma Llaneza señala que el autor del libro Homo Deus, Harari, considera que el dataísmo sostiene que el universo consiste en flujo de datos y que el valor de cualquier fenómeno o entidad está determinado por su contribución al procesamiento de los mismos. Del mismo modo, el dataísmo une ambos y señala que las mismas leyes matemáticas se aplican tanto a los algoritmos bioquímicos como a los electrónicos. De esta manera, el dataísmo hace que la barrera entre animales y máquinas se desplome y, espera que los algoritmos electrónicos acaban por descrifrar los algoritmos bioquímicos y los superen.

La autora considera que "tan potente es la propaganda a favor de los datos y en defensa de la desaparición de la privacidad (como si su reivindicación fuese pecaminosa, propia de personas con hábitos dudosos que prefieran ocultar) que Harari coloca el dataísmo dentro de los movimientos humanistas de corte religioso". Paloma Llaneza añade que "y es verdad que si uno se atreve a oponerse al tratamiento de los grandes datos es señalado como alguien contrario, en su totalidad, al avance y la innovación". Y recalca que Harari comenta que "para los políticos, los empresarios y los consumidores corrientes, el dataísmo ofrece tecnologías innovadoras y poderes inmensos y nuevos. Para los estudiosos e intelectuales promete asimismo el Santo Grial científico que ha estado eludiéndonos durante siglos: una única teoría global que unifique todas las disciplinas científicas".

La autora critica que "esta visión elevada de los datos como el Gataca que todo lo explica, aterriza en el frío suelo de los números cuando nos enfrentamos al uso que las empresas dan a los datos que les facilitamos de un modo u otro". Pero las empresas, como augures que leen los posos, predicen lo que va a suceder y no el por qué.

Añade que "Harari coloca la propiedad de los datos entre los tres principales problemas humanos de carácter global, lo que compromete y dificulta la resolución al no depender de las soberanías nacionales sino de un consenso internacional imposible en un mundo de intereses locales egoístas. Cree que Europa acabará creando seres superinteligentes para no quedarse atrás.

La autora advierte que una vez que conectas un sistema a una red abierta, los datos que produce y que producimos nosotros al llevarlo en el bolsillo se multiplican y van más allá de las páginas webs visitadas. Todas las máquinas (pecé, router, servidor) generan datos pasivos y es posible identificar un único ordenador. Así que cada uno de nosotros está identificado de forma unívoca. Controlar los móviles es controlar la identidad. Los móviles son ordenadores que hacen llamadas y los coches unos ordenadores que se mueven. Y las neveras se chivan a las compañías de seguros si abusamos de la cerveza o comemos mucho embutido. Y las pulseras de salud dicen si comemos mal y no hicimos el ejercicio necesario. Con todos estos datos se nos puede penalizar por nuestro pasado y predecir nuestro futuro.

Llaneza también se pregunta por el problema de concentrar los datos en los repositorios de unas pocas empresas como Facebook: obtener datos sin consentimiento real para un tratamiento poco transparente que ponga en riesgo el derecho fundamental a la intimidad, libre expresión, derecho a la participación política y libertad de movimientos, ética de que los titulares de los datos comercien con ellos y obtengan dinero más allá de disfrutar de servicios diseñados para ser adictivos.

 Paloma Llaneza  indica que E.Glen Weyl y Eric Posner en su libro "Radical Markets" (2018), consideran que en el futuro, como ocurrió con cualquier avance de la Revolución Industrial, el uso será tan intensivo de datos que el precio subirá. Tan convencido está Weyl que milita por distribuir la riqueza creada por la Inteligencia Artificial en el futuro, a la vista de la alta concentración actual de los tratamientos de grandes datos. Weyl argumenta que las habilidades necesarias para generar datos valiosos pueden estar más ampliamente diseminadas de lo que se podría pensar, por lo que el trabajo de datos podría afectar la jerarquía estándar del capital humano. Weyl avisa de que la unión de trabajadores de datos del mundo en una internacional dadaísta que acabará con la desigualdad y traerá un mundo soleado, sin lluvia ni replicantes. Pero la autora duda mucho que haya un "sindicato universal de los datos" cuando la realidad es que ya hay granjas de entrenadores humanos de Inteligencia Artificial que cobran sueldos de miseria.

Añade que la GeneraciónZ (GenZ) (nacidos en el siglo XXI) tiene intimidad cero debido a esa ausencia de percepción de peligro o de riesgo en el comportamiento "on line" cuando compartimos nuestros datos en una red social o un servicio pero están más preocupados por la privacidad pero no se traslada a los pagos con móviles o en las redes sociales, ellos trabajan en la Nube y desde la movilidad con "apps" gratis motivo por el que usan apps más discretas como Snapchat, Secret o Whisper (aunque les libran de estar sobreexpuestos a terceros, los proveedores acceden a contenidos "sensibles" que ellos mismos ponen en la Nube y ceden su información a las coorporaciones). En cambio los Millennials se limitan a gestionar su reputación "on line" limitando el acceso a sus perfiles y evitando tener en el perfil "bueno" a sus padres.

La autora también habla de la "paradoja" de la privacidad como la discrepancia entre la actitud del usuario y su comportamiento real en relación con la privacidad "on line" (hay una dicotomía entre unos usuarios muy preocupados por la privacidad que no hacen nada por protegerla). La Generación Z pone "muros" a amigos y compañeros pero no se preocupa de que las empresas recopilen sus datos. Hay otros elementos de peso: deseo de pertenencia, de estar conectado, de usar algo útil o estar en la onda.

Los datos que almacena Google del usuario

La autora examina los datos que almacena Google respecto a un usuario cualquiera. La Universidad de Vanderbill hizo en agosto del 2018 un experimento y descubrió que Google sabía la música que escuchaba por la mañana en Google Play Music, la actividad matinal que hacía para llevar a sus hijos al colegio, leía las noticias en el metro mientras iba al trabajo, buscaba medicamentos para el resfriado, caminaba del metro al trabajo, usaba Maps para encontrar un nuevo restaurante donde almorzar, pedía un café usando la aplicación Starbucks, pedía cita al médico y Google creaba un evento en su calendario a partir del email de confirmación, iba a la farmacia y compraba medicamentos usando Google Pay, cogía un Uber de camino a casa, buscaba hoteles en Expedia para viajar el fin de semana, utilizaba Google Home para ponerles música a sus hijos y veía vídeos de programas "late night" en You Tube.

A raíz de sus movimientos en Google, los servidores sabían que el usuario había visitado webs de la CNN sobre política y otra sobre energía solar, había buscado síntomas de resfriado,  se había gastado 12,99 dólares en la tarjeta, rastreos de viajes, que le dijo a Google Home "reproduce una nana" y "baja el volumen" y el "show" que vio en la tele.
Otro usuario examinó todos los datos que vio Google y concluyó que era el "Gran Hermano" definitivo: Google Maps lo ubicaba siempre, Google Fit registraba sus ejercicios, horas y coordenadas, los datos de navegación están organizados cronológicamente y van acompañados de enlaces, Android sabe qué aplicaciones están instaladas en el móvil, You Tube almacena su historial, Calendar permite acceder a la agenda, Drive conserva los archivos generados, todos los contactos teléfonicos están almacenados y todas las apps usadas y cuándo ordenadas cronológicamente.
Una de las conclusiones de los investigadores es que Android y iPhone almacenan automáticamente nuestros movimientos incluso si detienen la configuración de ubicación. Hay rastreos de cada persona a través de antenas, torres móviles, tarjetas SIM y puntos wifi, así como dispositivos barométricos del teléfono que ubican a una persona dentro de un edificio.
Por su parte, Crome recopila el historial de navegación web, contraseñas, permisos de la web, cookies, descargas y datos agregados. Un estudio concluyó que Android recopiló más datos del teléfono, aunque esté parado, y se los envió a Google que el iPhone. También se sospecha que pasan datos de identidad a las publicitarias.

Las herramientas centradas en anunciantes de Google (Editores de sitios web y aplicaciones y los anunciantes que usan las herramientas de Google para dirigirse a perfiles específicos para aumentar el rendimiento de sus inversores en márketing juntas recopilan información sobre las actividades de los usuarios en las webs y en las aplicaciones con el contenido visitado y los anuncios en los que hace clic. Funcionan en segundo plano y el usuario no lo ve. Hay un identificador no personal que Google puede usar para enviar anuncios dirigidos sin identificar la información personal del individuo. Pero, según explica la autora, un análisis de tráfico de datos apunta a que Google relaciona los datos recopilados anónimos con la información personal de usuarios. Los identificadores anónimos (GAID) pueden asociarse con la cuenta de Google de un usuario.
Parece ser que Google también escanea archivos de correos electrónicos enviados por gmail y documentos de Drive así como las notas de Keep para orientar los anuncios. En el caso de Google Photos, no solo almacena las caras de las fotos sino el estado emocional de la persona.

La autora señala que "como agentes humanos, somos visibles en casi todas las interacciones con plataformas tecnológicas. Siempre estamos siendo rastreados, cuantificados, analizados y mercantilizados. El nuevo horizonte infinito es la extracción de datos, el aprendizaje automático y la reorganización de la información a través de sistemas de inteligencia artificial de procesamiento humano y mecánico combinados. Los territorios están dominados por megaempresas globales, que están creando nuevas infraestructuras y mecanismos para la acumulación de capital y la explotación de recursos humanos y planetarios".

Inteligencia artificial

El ICO del Reino Unido propone definir los datos como: el uso de algoritmos, la opacidad del procesamiento, la tendencia a recoger "todos los datos", la reutilización de los datos y los usos de nuevos tipos de datos.

Según relata la autora, en el 2009 la Universidad de Berkeley presentó Spark para manejar modelos de Big Data de forma más eficiente y revolucionó el análisis en tiempo real además de acelerar el proceso usando GPU en vez de CPU. A partir de ahí, y con el iPhone, hubo una convergencia de avances algorítmicos, proliferación de datos y aumento de computación y almacenamiento. La combinación de datos, modelos matemáticos y capacidad de cómputo y almacenamiento hizo que la IA sea real.
En cuanto a la inteligencia artificial y el aprendizaje profundo y neuronal, se producen tres tipos de aprendizaje automático:

-el aprendizaje supervisado (la máquina es entrenada por humanos que etiquetan variables de entrada y salida). Se usa para entender y optimizar precios (regresión lineal), clasificar a los clientes por probabilidad de que devuelvan un préstamo o predecir si una lesión cutánea es benigna (Regresión logística), predecir la rotación de clientes (Análisis discriminante lineal o cuadrático), proporcionar una decisión para contratar nuevos empleados o comprender qué atributo aumenta las ventas de un producto (Árbol de decisión), analizar el sentimiento de comprar (Naive Bayes), predecir pacientes para atender un hospital o la probabilidad de hacer clic en un anuncio on line (Suport vector machine), predecir el uso de energía o de llamadas (Random Forest), detectar fraudes en tarjetas (AdaBoost), prevenir la demanda de productos, probabilidad de que un paciente se una a un programa de salud (uso de red neuronal simple) o si los usuarios estarían dispuestos a pagar o no un precio por un producto (uso de red neuronal simple)

- el aprendizaje sin supervisión (un algoritmo explora los datos de entrada sin recibir una variable de salida explícita. No sabe clasificar los datos y el algoritmo encuentra patrones y datos). Sirve para segmentar a los clientes en grupos y características, asignar mejor las campañas de márketing o evitar pérdida de clientes (K-means clustering), segmentar clientes por preferencias o segmentar empleados por probabilidad de agotamiento (Gaussian mixture model), agrupa a clientes por fidelización en grupos microsegmentados o informa de productos a clientes que mencionan palabras clave en las redes sociales (Hierarchical clustering) y recomienda qué películas deberían ver los consumidores según las preferencias de otros clientes (sistemas de recomendación).

- el aprendizaje reforzado (un algoritmo aprende a realizar una tarea maximizando la recompensa por sus acciones). Sirve para optimizar la estrategia de trading para una cartera de opciones, equilibrar la carga de las redes eléctricas en ciclos de demanda, realizan un inventario usando robots, optimizan e comportamiento de conducción de coches autoconducidos, optimizan los precios en tiempo real para una subasta en línea.

El resultado es que aunque los algoritmos se vendieron como algo "objetivo", se están usando para adentrarse en aprendizaje en capas más profundas (la psique) y, según Paloma Llaneza, "han surgido múltiples economías cognitivas de la economía de la atención, de vigilancia, economía de la reputación, economía emocional, cuantificación y mercantilización de la confianza". Existen conjuntos de entrenamiento para la detección de emociones, parecido familiar, seguimiento de un individuo a medida que envejece, acciones como sentarse, saludar, levantar un vaso o llorar. Se están capturando datos biológicos forenses, biométricos, sociométricos y psicométricos para formar a la IA.

Entre las empresas que actúan en la nube están Amazon (AWS), Microsoft (Azure) y Google (Google Cloud), lo que según la autora da una idea de una "falsa democratización de la IA". Afirma que las herramientas de aprendizaje automático como TensorFlow son accesibles, "su lógica subyacente a estos sistemas y los conjuntos de datos para su capacitación son inaccesibles y están controlados por muy pocas entidades". Añade que en plataformas como Facebook, los usuarios están entrenando a las redes neuronales con datos de comportamiento, voz, imágenes etiquetadas y vídeos, o datos médicos. "En una era extractivismo, el valor real de esos datos es controlado y explotado por unos pocos en la cima de la pirámide".

Respecto a la toma de decisiones de la IA y el sesgo, hay un efecto pernicioso: el sistema se retroalimenta y hace prediciones que se autocumplen. Si alguien es rechazado en un trabajo por un test, este servirá de estandar, y el parado crónico se volverá iracundo. Respecto al sistema FICO para pagar deudas, devolver a tiempo el dinero no es suficiente para predecir el futuro: cuentan otras variables como hacer "running" a los 50 (probabilidad de fallo cardíaco o de tener amante), comprar en supermercados baratos (tener problemas económicos): el divorcio a la vista te aleja de la hipoteca lo mismo que una repentina afición al ejercicio físico aeróbico te deja sin un seguro médico aceptable. "Ya no se trata de aguantar una publicidad incómoda sino que dar información individual irrelevante nos define en conjunto no solo quiénes somos sino quiénes vamos a ser", dice.

Sesgos
Sobre los sesgos Cathy O'Neil señala que "los modelos son opiniones embebidas en matemáticas". O'Neil habla de "matemáticas de destrucción masiva" (WMD) que son:

-Los que definen su propia realidad para justificar sus resultados. Estos modelos, se autoperpetúan, son muy destructivos y demasiado comunes.
- los que se camuflan entre su código asunciones peligrosas no comprobadas.
- Los que tienden a penalizar al pobre y a perpetuar la desigualdad.
- Los que funcionan como una caja negra, en la que nadie está dispuesto a explicar el razonamiento detrás del resultado.

La autora matiza que los algoritmos que desvela O'Neil son opacos pero predecibles: hacen lo que han sido programados para hacer.
Llaneza Menciona el algoritmo tóxico "Compas" (Correctional Offender Management Profiling for Alternative Sanctions) que sirve para elaborar perfiles de los internos. Propublica lo evaluó y el algoritmo predijo acertadamente la reincidencia en el 59 % de los casos en delitos leves para blancos y 63 % para negros pero luego el programa tenía un marcado sesgo para señalar a los negros como reincidentes.  Incluso el MIT y UCardiff encontraron que las máquinas cuando se autoprograman pueden desarrollar prejuicios por sí mismas. Añade que "después de todo el software está escrito por hombres blancos y asiáticos abrumadoramente ricos e inevitablemente reflejará sus suposiciones. El sesgo no requiere de mala fe para convertirse en dañino. Por eso la transparencia algorítmica es importante".

Adicción
La autora explica que muchas "apps", plataformas, redes sociales y teléfonos móviles están diseñados para generar adición entre los usuarios para que estén el mayor tiempo posible sentados ante la pantalla como si fuese un videojuego o una máquina tragaperras. Recuerdan al experimento de Pavlov con sus perros que salivaban al oír la campanilla de un metrónomo anunciando comida aunque no la hubiese (lo que dio lugar a la ley del reflejo condicional). "Pocos sabemos que gracias a la hiperconectividad, las redes sociales y los servicios "on line" de extracción de datos nos hemos convertido en el perro [que mueve la palanca]", dice la autora. "Somos como pequeñas mascotas a las que se entrena con premios", dice. Recuerda que el botón de "like" se hizo para dar un subidón de dopamina para explotar la vulnerabilidad de la psique humana: la necesidad de validación social.

Critica que cuando alguien se vuelve adicto al móvil le culpen a él por no controlar sus impulsos y nadie se pregunte qué tipo de dispositivo adictivo han diseñado los programadores.

Las redes sociales funcionan así: hay un disparador, una acción, una recompensa y una inversión, en ciclos sucesivos, y con los ganchos se forman los hábitos". Dice que hay mecanismos deslizadores en la pantalla como el "pull-to-refresh" (diseñado por Loren Brichter, de Twitter, funciona así: deslizar hacia abajo por el Time Line, se detienen y esperan a ver qué contenido aparece) o "infinite scrolling" que son parecidos a una máquina tragaperras (tiras de la palanca y recibes recompensa o nada, lo que genera incertidumbre y es lo que nos hace volver; hay un refuerzo del comportamiento).

Los programas de refuerzo son:

- Programas de refuerzo continuo: para etapas de aprendizaje, para hacer una asociación fuerte entre comportamiento y respuesta.

- Programas de refuerzo parcial: Intermitente, hay menor aprendizaje pero la respuesta es resistente. Difícil deshabituarse. Hay cuatro tipos:
 1) De proporción fija (alimento para ratas si presiona cinco veces la palanca)
2) Proporción variable (juegos de azar y loterías, alimentos aleatorios para ratas)
3) De intervalo fijo (esperar un rato a alimentar a la rata)
4) Intervalo variable (dar alimento a tiempos distintos si le da a la palanca).

 Este último, las recompensas de los programas de refuerzo variable, son clave para que los usuarios de las redes sociales estén consultando sus móviles de manera constante enganchados por una recompensa impredecible (lo hace más susceptibles a la depresión y la ansiedad y, por eso, las redes sociales aumentan la tristeza).

Prácticamente, un móvil es una "tragaperras de bolsillo" debido a sus recompensas variables, según Tristan Harris. "Todas nuestras mentes están secuestradas. Nuestras opciones no son tan libres como creemos que son", afirma. Según Harris (ex de Google), Linkedin explota la necesidad de reciprocidad social para ampliar su red, YouTube y Netflix reproducen automáticamente los vídeos y los próximos episodios y Snapchat creó Snap streaks (que fomenta la comunicación entre adolescentes).

Según Harris, gracias a la nanopersonalización puede adaptarse algorítmicamente a cada persona. Facebook era capaz de identificar cuándo los adolescentes se sienten "inseguros", "sin valor" y "necesitan un impulso de confianza". Hay un modelo perfecto de botones que pulsar para cada persona en particular, dice la autora. El botón de "Me gusta" se cambió de azul a rojo porque es un color "disparador".

Harris cita ejemplos de técnicas de adición usadas por empresas tecnológicas:

1) Si controlas el menú, controlas las opciones.
2) Poner una máquina tragaperras en un billón de bolsillos (se entiende billón por "mil millones")
3) Miedo a perderse algo importante o de quedarse fuera: FOMSI (Fear of Missing Something Important) o FOMO (Fear of missing out).
4) Aprobación social
5) Reciprocidad social (Tit-for-tat). Obligación social a corresponder gestos.
6) Cuencos sin fondo, alimentaciones infinitas y reproducción automática.
7) Interrupción instantánea "versus" entrega "respetuosa" (llamadas sorpresivas que captan la atención del usuario)
8) Combinando tus razones con sus razones (la técnica del supermercado de poner las cosas básicas al fondo para pasar primero por todas las estanterías)
9) Opciones incómodas (condiciones leoninas para aceptarlas; si te vas, no hay otra opción)
10) Errores de pronóstico y estrategias de "pie en la puerta" (la gente se lía a ver vídeos de gatos pensando que no tardará mucho)

Harris impulsa el movimiento Time well spent (timewellspent.io) dentro del Center for Humane Technology (humanetech.com) Se unieron a él el creador del botón "Me gusta" (Justin Rosenstein). El colectivo denuncia que el algoritmo de Facebook está diseñado para maximizar la atención de los usuarios y las horas que dedican a la plataforma (tiempo ligado a los beneficios por publicidad). El modelo de negocio se basa en hacer crecer el número de usuarios y las conexiones e interacciones entre ellos para, de esa forma, aumentar su base de datos.

La conclusión de la autora es que "antiguos trabajadores de Facebook y Google manifiestan, no sin horror y preocupación, que el uso de los datos de los usuarios para conocerlos en profundidad se está empleando en mecanismos de manipulación emocional y de refuerzo de sus posiciones, haciendo un uso tan brillante como insensato de los sesgos cognitivos de los que acceden a su plataforma: solo vemos lo que nos agrada y lo que reafirma que nuestra visión de la realidad es correcta, eliminando del timeline de los usuarios cualquier información, dato o imagen que muestre una visión distinta del mundo. El algoritmo que sirve publicidad personalizada es el mismo que lo retiene cautivo dándole lo que quiere".

GAFA y filtro burbuja
En este apartado, al autora señala que las "fake news" funcionan porque la gente las ve. Cita el caso de Boris el macedonio (un adolescente de Veles que empezó a mover noticias sobre Trump, da igual que sean verdaderas o falsas, porque eran muy leídas y ganaba mucho dinero con la publicidad; hay una recompensa al contenido de odio o al troll). En China hay granjas de bots (programan móviles para sumar visitas en páginas sin intervención humana y generan tráfico falso). Hay una versión española: la web Digital Sevilla, con 496.000 usuarios únicos. Las anunciantes reclaman por las pérdidas con el tráfico falso.
Se llama "clickbait" al anzuelo para pescar visitas y monetizar con publicidad para captar la atención del usuario.

El "filtro burbuja" fue bautizado por Eli Pariser en 2011.

Las GAFA son los gigantes Google, Apple, Facebook y Amazon) y tienen poder monopolístico y algunos le critican que sean un obstáculo para la innovación al abusar de su posición de dominio en el mercado (compran a los competidores o los anulan). Recopilar datos masivos de los ciudadanos y hacer un uso intensivo de ellos supone un riesgo para la intimidad y el desarrollo personal de estos.
Apple y Amazon están con el "retail" y hay quejas por su tamaño, modelo fiscal, y afectación al minorista.
Google y Facebook tienen quejas por el uso descontrolado de los datos en las elecciones. (Cambridge Analytica en el 2018, sanciones de la Comisión Europea por abuso de posición de dominio).

El resultado es que el anunciante es el cliente y el usuario es el producto.

A ello se suma los "bots", los trolls americanos y las tramas rusas (les acusan de favorecer el algoritmo del mensaje de Trump para movilizar a sus votantes).

Los eurodiputados de la UE propusieron:
- Aplicar salvaguardas electorales convencionales del mundo off-line al mundo on-line (transparencia, límite de gasto, respeto a las jornadas de reflexión, igualdad de trato a candidatos)

- Identificar quién está detrás de la publicidad electoral pagada en redes sociales y otros entornos.

- Prohibir los perfiles para fines electorales, ni el uso de comportamientos "on line" que revelen preferencias políticas.

- Obligar a redes sociales a etiquetar el contenido compartido con los "bots", eliminar cuentas falsas y trabajar con verificadores de hechos.

Eurojust vigilaría a las "fuerzas extranjeras" que se entrometen en elecciones ajenas.

La autora advierte de que las GAFA (que prefieren autorregularse a ser reguladas) están en un escenario "explosivo": un crecimiento ilimitado y ausencia casi total de control legal regulatorio. El millonario George Soros pide el control de estos monopolios (casi servicios públicos). Nadie ha hecho nada por impedirlo a pesar de las multimillonarias sanciones a Google, que a la compañía lejos de hundirla, le rebotó. Las multas son por aprovechar su abrumadora posición de dominio en las búsquedas en Internet para promocionar artificialmente Google Shopping y eliminar competidores, así como otra por presuntas prácticas anticompetitivas en el mercado de sistemas operativos para móviles (solo funcionan con el dispositivo Android).

El periodista Barry Lynn (de Open Markets Institute) indicó que "gigantes como Amazon o Google hacen que la economía se estanque y sea más frágil" y propuso aplicarles una ley antimonopolio. Cree que el problema está en que estas redes sociales fueron creadas para recopilar datos pero no para gestionarlos en interés general. Cree que no se debió permitir a Facebook comprar Instagram y WhatsApp. Google se hizo con YouTube, Android, Deep Mind, Waze y Doubleclick.

Por su parte, McNamee propone estas reformas legislativas para incentivar la innovación, limitar las "fake news" y proteger la vida privada de los usuarios:

1) Prohibir los bots (distorsionan la política; hay que etiquetarlos)
2) No permitir a las plataformas hacer más adquisiciones hasta que resuelvan el daño hecho (Internet perdió la descentralización)
3) Las plataformas deben ser transparentes sobre quién está detrás de la comunicación política.
4) Las plataformas deben ser más transparentes respecto a sus algoritmos.
5) Se debe exigir a las plataformas que tengan una relación contractual más equitativa con los usuarios.
6) Se necesita un límite de explotación comercial de los datos de los consumidores por las plataformas de Internet (propone una ley de prescripción sobre el uso de datos de los consumidores por una plataforma, renegociable)
7) Los consumidores, no las plataformas, deben tener sus propios datos
8) Revivir el enfoque tradicional sobre el tratamiento de monopolios

Inicialmente, un monopolio es problema si no sube los precios pero ahora se dan cuenta de que las plataformas gratuitas generan "costes" ocultos o "externalidades" (adicción, manipulación electoral, reducción de innovación, contracción de economía empresarial...)

Análisis de ADN

La autora examina las "apps" sobre las bases de datos de ADN y la búsqueda de los ancestros a través de webs como Ancestry. Esta empresa envía kits caseros para recabar muestras de saliva para obtener el código genético (Gataca), que pasa a ser suyo y permite predecir la salud futura del usuario, para proyectos de investigación genealógica o genómica, verificación de identidad, encuestas, perfiles... todo ello se supone que para mejorar la información de las investigaciones médicas y farmacéuticas de sus socios. Aquí se incluye cuánto fumamos, si estamos sentados, sin hacer nada, si vemos la tele...)

Hay otras empresas como Baby-Glimpse (para saber cómo será nuestro bebé), 23andMe (la mayor del sector; para conocer nuestras bacterias del intestino o el ADN de las mascotas; cederá datos a farmacéuticas), Orig3n (revela el "superpoder" de cada cliente), 24Genetics (explica si afecta más la cafeína o dulces). El problema es que estos datos de salud predicen enfermedades y pueden limitar al usuario su acceso a seguros privados o el mundo laboral. O un hermano que se hace el ADN ayuda sin quererlo al FBI, que usa la base de datos GEDmatch, a descubrir que su otro hermano es un asesino en serie (De Angelo, Sacramento).

A la autora la preocupa que los padres difundan el ADN del niño (para ver si es intolerante al tomate) y luego, de mayor, las aseguradoras le denieguen el seguro médico [nota del lector: muy preocupante en aquellos países en los que no haya Seguridad Social universal].

Alexa, Amazon Echo, iRobot

Otra fuga de datos se produce con aparatos de interfaz de interacción humano-IA como Alexa (agente de inteligencia artificial que aprende y agrega nuevas funciones) o Amazon Echo. Detrás de Alexa hay cadenas entrelazadas de extracción de recursos, trabajo humano y procesamiento algorítmico a través de redes de minería, logística, distribución, predicción y optimización. Con cada interacción, Alexa se entrena para interpretar con mayor precisión después de que el dueño la active por voz y le ordene poner una canción o encender una luz.

La autora dice que el usuario de Echo es un consumidor, un recurso, un trabajador y un producto, algo que es común a los sistemas de extracción y análisis de datos. Incluso el usuario es entrenador de IA y las redes neuronales de Amazon. "Echo no es más que un oído en el hogar, es un agente de escucha descarnado que nunca muestra sus conexiones profundas con sistemas remotos", afirma Llaneza.

El robot aspiradora iRobot (de Roomba) lleva cámara y, aunque pide consentimiento a los dueños de las casas para hacer planos y mapas, puede afectar a su privacidad (sabe a qué hora están los dueños) cuando se conecta a la Nube y transfiere los datos al proveedor que podría monetizar la información (como un subproducto de su negocio). Algo similar pasaría con los coches autónomos compartidos recogiendo datos del entorno.

El resultado es que el Internet de las Cosas (IoT) hace que cualquier actor (fabricante, proveedor, usuario final) que participe en este ecosistema tenga acceso a muchos datos que el dispositivo de IoT genere. Un ejemplo es Songdo, en Corea del Sur, una ciudad inteligente totalmente cableada. Incluso para optimizar el uso de la energía de la lavadora, la IoT debe saber cuándo el dueño de la casa está ausente.

La gente incluso podría llevar dispositivos de IoT implantados o inyectados. A ello se suman los sensores, colocados en todos los sitios (daría lugar a un "paternalismo positivo" de la ciudad pero también define patrones de comportamiento generando una "inteligencia colectiva" que se incorpora a la IoT, el llamado Internet of Everything o IoT cognitivo). Como en un episodio de Black Mirror, el despertador sonará diez minutos antes porque hay atasco.
También afectará a los datos biométricos. Con la IoT, hablar sustituye a escribir pero los aparatos tienen micrófonos que "escuchan todo el rato" como Echo, Google Home o Apple Pod. Hubo un señor que descubrió que Siri le escuchaba en sueños y le contestaba. "Alexa está pensada para cotillear permanentemente", dice la autora. Además, la IA puede ser engañada facilmente, lo que da paso a "ataques de audio" hácker.

Respecto a los seguimientos biométricos, justificados por la seguridad, se hacen seguimientos combinando cámaras de vigilancia, reconocimiento de caras e IA. Algunas pulseras de Fitbit ayudaron a resolver asesinatos mediante geoposicionamiento y wearebles. Los militares no pueden usar rastreadores de ejercicios. Otros hacen "tracking" con las rutas de los usuarios de pulseras que registran sus entrenamientos.

Ahora incluso hay el Internet de la emoción, pues los dispositivos saben nuestro estado de emoción en tiempo real (hormonales, frecuencia cardíaca, expresiones faciales, tono de voz), lo que hace vulnerable a los usuarios de ser manipulados (imagen pública emocional y apariencia de salud mental). Las máquinas de biosensing (indicadores físicos y ondas cerebrales) reconocen celos, ambición, dominio... Surgen el "yo cuantificado" y las "métricas personales".

Crédito social
Se refiere a Sesame Credit o Alipay (China) que realiza evaluaciones objetivas. En Europa, posiblemente las empresas de redes sociales hagan "puntuaciones" y las compartan unos con otros.

El "data breach" son ataques a bases de datos de redes sociales.

Finalmente, la autora considera que hay problemas con el consentimiento que es ineficaz como medida legal de recogida de datos. Además, muchas empresas "monitorizan" a sus empleados para saber si están "estresados" o "abrumados" o son "tontos" o "sin valor".

No hay comentarios:

Publicar un comentario