Quién controla tu información de Facebook

Un pequeño equipo de ingenieros en Menlo Park. Un panel de usuarios anónimos de poder en todo el mundo. Y, cada vez más, tú.

Cada vez que abres Facebook, uno de los algoritmos más influyentes, controvertidos e incomprendidos del mundo entra en acción. Escanea y recopila todo lo publicado por cada uno de tus amigos, todos los que sigues, cada grupo al que perteneces y cada página de Facebook que te ha gustado. Para el usuario promedio de Facebook, eso es más de 1,500 mensajes. Si tienes varios cientos de amigos, podría ser hasta 10,000. Luego, de acuerdo con una fórmula cuidadosamente guardada y en constante cambio, el algoritmo de alimentación de noticias de Facebook los clasifica a todos, en lo que cree que es el orden preciso de la probabilidad de que cada publicación valga la pena. La mayoría de los usuarios solo verán los primeros cientos.

Nadie fuera de Facebook sabe con certeza cómo lo hace, y nadie dentro de la compañía se lo dirá. Y aún así, los resultados de este proceso de clasificación automatizado dan forma a las vidas sociales y los hábitos de lectura de más de mil millones de usuarios activos diarios, una quinta parte de la población adulta del mundo. El poder viral del algoritmo ha dado vuelta la industria de los medios de comunicación, impulsando a nuevas empresas como BuzzFeed y Vox a la prominencia nacional, mientras que los periódicos de 100 años se marchitan y mueren. Alimentó el aumento estratosférico de compañías de miles de millones de dólares como Zynga y LivingSocial, solo para chuparles el helio un año o dos más tarde con algunos ajustes a su código, dejando atrás a los inversionistas vacíos y trabajadores despedidos. El algoritmo de alimentación de noticias de Facebook puede modificarse para hacernos felices o tristes; Nos puede exponer a ideas nuevas y desafiantes o aislarnos en burbujas ideológicas.
 
Un panel de evaluadores de noticias se ha convertido en el equivalente de Facebook de la familia Nielsen.

La realidad del algoritmo de Facebook es algo menos fantástica, pero no menos fascinante. Recientemente tuve una rara oportunidad de pasar tiempo con el equipo de noticias de Facebook en su sede de Menlo Park, California, y ver cómo se ve realmente cuando hacen uno de esos infames "cambios" en el mercado para el algoritmo: por qué lo hacen. esto, cómo lo hacen y cómo deciden si funcionó. Un vistazo a su funcionamiento interno arroja luz no solo sobre los mecanismos de la alimentación de noticias de Facebook, sino también sobre las limitaciones del aprendizaje automático, los escollos de la toma de decisiones basada en datos y los movimientos que Facebook está realizando cada vez más para recopilar y abordar los comentarios de personas individuales. usuarios, incluido un creciente panel de evaluadores que se están convirtiendo en el equivalente de Facebook de la familia Nielsen.

El algoritmo de Facebook, según aprendí, no es defectuoso debido a algún error en el sistema. Tiene fallas porque, a diferencia de los algoritmos conscientes y perfectamente realizados de nuestros sueños de fiebre de ciencia ficción, la inteligencia detrás del software de Facebook es fundamentalmente humana. Los seres humanos deciden qué datos entran en ella, qué pueden hacer con esos datos y qué quieren que salga por el otro lado. Cuando el algoritmo falla, los humanos son los culpables. Cuando evoluciona, es porque un grupo de humanos leyó un montón de hojas de cálculo, sostuvo un montón de reuniones, corrió un montón de pruebas y decidió mejorarlo. ¿Y si sigue mejorando? Eso será porque otro grupo de humanos les sigue contando todas las formas en que se está quedando corto: nosotros.
 
 
Cuando llego a la amplia oficina de Facebook diseñada por Frank Gehry en Menlo Park, me encuentro con un hombre de 37 años de edad, cuyo rostro infantil se mueve rápidamente entre una sonrisa sincera y una expresión de intensa concentración. Tom Alison es director de ingeniería para el servicio de noticias; Él está a cargo de los humanos que están a cargo del algoritmo.

Alison me guía a través de un laberinto de cubículos y mini cocinas abiertas hacia una pequeña sala de conferencias, donde promete desmitificar la verdadera naturaleza del algoritmo de Facebook. En el camino, me doy cuenta de que necesito usar el baño y preguntar por direcciones. Una mueca involuntaria cruza su rostro antes de que se disculpe, sonríe y dice: "Te acompañaré allí". Al principio creo que es porque él no quiere que me pierda. Pero cuando salgo del baño, él todavía está parado afuera, y se me ocurre que no puede dejarme solo.

Por la misma razón, la feroz protección de los secretos comerciales de Facebook, Alison no puede decirme mucho sobre el código real que compone el algoritmo de noticias. Sin embargo, puede decirme qué hace y por qué, y por qué siempre está cambiando. Comienza, como suelen hacer los ingenieros, en la pizarra.

"Cuando estudias ciencias de la computación, uno de los primeros algoritmos que aprendes es un algoritmo de clasificación", dice Alison. Él garabatea una lista de enteros positivos en borrado en seco:

4, 1, 3, 2, 5

La tarea simple que nos ocupa: diseñar un algoritmo para ordenar estos números en orden ascendente. "Los seres humanos saben cómo hacer esto", dice Alison. "Simplemente lo hacemos en nuestras cabezas".

Las computadoras, sin embargo, deben ser explicadas precisamente cómo. Eso requiere un algoritmo: un conjunto de instrucciones concretas mediante las cuales se puede resolver un problema dado. El algoritmo que Alison me muestra se llama "ordenación de burbuja" y funciona así:

    Para cada número en el conjunto, comenzando con el primero, compárelo con el número que sigue y vea si están en el orden deseado.
    Si no, revertirlos.
    Repita los pasos 1 y 2 hasta que pueda continuar con el conjunto de principio a fin sin invertir ningún número.

La virtud del género burbuja es su simplicidad. El inconveniente: si su conjunto de datos es grande, es computacionalmente ineficiente y requiere mucho tiempo. Facebook, por razones obvias, no utiliza burbuja de clasificación. Utiliza un algoritmo de clasificación para ordenar el conjunto de todas las publicaciones que podrían aparecer en su fuente de noticias cuando abre la aplicación. Pero esa es la parte trivial, un subalgoritmo menor dentro del algoritmo maestro. La parte no trivial está asignando a todas esas publicaciones un valor numérico en primer lugar. Ese es, en resumen, el trabajo del equipo de clasificación de fuentes de noticias: diseñar un sistema capaz de asignar a cualquier publicación de Facebook un "puntaje de relevancia" específico para cualquier usuario de Facebook.

Ese es un problema difícil, porque lo que es relevante para usted, una publicación de su amigo de la infancia o de una celebridad que sigue, podría ser absolutamente irrelevante para mí. Para eso, explica Alison, Facebook usa un tipo diferente de algoritmo, llamado algoritmo de predicción. (El algoritmo de alimentación de noticias de Facebook, como el algoritmo de búsqueda de Google o el algoritmo de recomendación de Netflix, es realmente un complejo extenso de software formado por algoritmos más pequeños).

"Digamos que te pido que elijas al ganador de un futuro juego de baloncesto, Bulls vs. Lakers", comienza Alison. "Toros", solté un gruñido. Alison se ríe, pero luego asiente vigorosamente. Mi cerebro tomó su aporte y produjo una salida verbal inmediata, tal vez de acuerdo con algún algoritmo propio. (Los algoritmos de la mente humana son mucho más sofisticados que cualquier cosa que Silicon Valley haya diseñado aún, pero también dependen en gran medida de la heurística y son notoriamente propensos a la locura).

La adivinación aleatoria está bien cuando no tienes nada que perder, dice Alison. Pero digamos que había mucho dinero en mis predicciones de baloncesto, y las estaba haciendo millones de veces al día. Necesitaría un enfoque más sistemático. "Es probable que empieces a ver datos históricos", dice. "Vas a ver el registro de victorias y derrotas de cada equipo, los registros de los jugadores individuales, que están lesionados, que están en una racha". Tal vez tengas en cuenta los factores ambientales: ¿Quién es el equipo local? ¿Un escuadrón juega en el descanso breve o después de un vuelo de travesía? Su algoritmo de predicción podría incorporar todos estos factores y más. Si es bueno, no solo predecirá el ganador del juego, sino que le dirá su grado de confianza en el resultado.

Eso es análogo a lo que hace el algoritmo de alimentación de noticias de Facebook cuando intenta predecir si le gustará una publicación determinada. Le pregunto a Alison cuántas variables, "características", en la jerga del aprendizaje de máquinas, el algoritmo de Facebook tiene en cuenta. "Cientos", dice.

No solo predice si realmente pulsará el botón "Me gusta" en una publicación en función de su comportamiento anterior. También predice si lo vas a hacer clic, comentar, compartir u ocultar, o incluso marcarlo como spam. Predicirá cada uno de estos resultados, y otros, con un cierto grado de confianza, luego los combinará para producir un único puntaje de relevancia que sea específico tanto para usted como para esa publicación. Una vez que todas las publicaciones posibles en tu feed hayan recibido su puntuación de relevancia, el algoritmo de clasificación puede ponerlas en el orden en que las verás en la pantalla. La publicación que ves en la parte superior de tu feed, entonces, ha sido elegida entre miles de otras personas como la que más probablemente te hará reír, llorar, sonreír, hacer clic en Me gusta, compartir o comentar.

¿Qué pasa si a las personas les gustan las publicaciones que realmente no les gustan?

Sin embargo, no importa cuán meticulosamente construyas un algoritmo, siempre habrá datos de los que no estás al tanto: los planes de juego de los entrenadores, cómo se siente la rodilla de Derrick Rose ese día, si la pelota está inflada correctamente. En resumen, el juego no se juega por datos. Es jugado por personas. Y las personas son demasiado complejas para que cualquier algoritmo las modele.

El algoritmo de predicción de Facebook enfrenta otra complicación, esta un poco más epistemológica. La puntuación de relevancia debe ser análoga a la probabilidad de que los Bulls ganen el juego. Ese es un resultado discreto que es completamente medible: ganan o no ganan. El algoritmo de clasificación de Facebook se utiliza para tratar de predecir un resultado similar medible: si interactuarías de alguna manera con la publicación en cuestión. Las interacciones, los humanos detrás de las noticias de Facebook, son un buen indicador de que una publicación dada ha tocado un punto importante. También resultan ser el combustible que impulsa la economía de Facebook: los clics, los "me gusta", los compartidos y los comentarios son lo que hace que las publicaciones se vuelvan virales, conviertan a los usuarios individuales en comunidades y dirijan el tráfico a los anunciantes en los que Facebook confía para obtener ingresos.

Pero esas interacciones son solo un proxy aproximado de lo que los usuarios de Facebook realmente quieren. ¿Qué sucede si a las personas les gustan las publicaciones que realmente no les gustan o si hacen clic en las historias que resultan ser poco satisfactorias? El resultado podría ser una fuente de noticias que optimiza la viralidad, en lugar de la calidad, una que alimenta a los usuarios con una dieta constante de dulces, dejándolos mareados y un poco nauseabundos, gustando las cosas de la izquierda a la derecha pero gradualmente creciendo para odiar todo el juego tonto. ¿Cómo se optimiza contra eso?
Fue a finales de 2013, y Facebook fue la compañía más popular del mundo. La red social superó los mil millones de usuarios y se hizo pública con una valoración de más de $ 100 mil millones. Se había pasado el año pasado construyendo una aplicación móvil renovada que superó rápidamente la Búsqueda de Google y Google Maps como la más popular del país. Ya no era solo una forma de mantenerse en contacto con amigos, Facebook se había convertido, de hecho, en el periódico global del siglo XXI: un suministro de noticias, entretenimiento y actualizaciones personales de amigos y seres queridos al minuto. Se adapta automáticamente a los intereses específicos de cada usuario individual.

Dentro de la empresa, los responsables de la transmisión de noticias estaban encantados con el crecimiento. Pero si bien la participación de los usuarios se disparó, no quedó claro si su satisfacción general con Facebook se mantuvo a la par. A la gente le gustaban más cosas en Facebook que nunca. ¿Pero les gustaba menos Facebook?

Para comprender cómo surgió esa pregunta, debe retroceder a 2006. Facebook, que originalmente era poco más que un compendio masivo de páginas de perfil y grupos, algo como MySpace, creó el servicio de noticias de ese año como un centro de actualizaciones sobre sus amigos. 'actividades en el sitio. Los usuarios se enfadaron ante la idea de que sus actualizaciones de estado, los cambios en la imagen del perfil y las notas coquetas en las páginas de otros se incrustarían en los feeds de todos sus amigos, pero Facebook siguió adelante.

Incluso entonces, no todo lo que hicieron tus amigos lo hizo en tu feed de noticias. Para evitar abrumar a las personas con cientos de actualizaciones todos los días, Facebook creó un algoritmo básico para filtrarlos según la probabilidad de que fueran de su interés. Sin una forma real de medir eso, el botón me llegó tres años después, los ingenieros de la empresa simplemente hicieron suposiciones basadas en su propia intuición. Los primeros criterios para la inclusión de una publicación en tu feed de noticias incluían la antigüedad y la cantidad de amigos que mencionaron. Con el tiempo, el equipo intentó ajustar esas suposiciones y probar cómo los cambios afectaban la cantidad de tiempo que los usuarios pasaban en el sitio. Pero sin la posibilidad de evaluar qué tipo de publicaciones encantaban a las personas y cuáles eran aburridas, ofensivas o confusas, los ingenieros esencialmente lanzaban dardos.
151230_FT_Facebook-Mosseri-Whiteboard
Adam Mosseri (de pie), el director de productos para noticias, con su equipo de gerentes de productos. En el sentido de las agujas del reloj, desde el extremo izquierdo: Greg Marra, Vibhi Kant, Uzma Barlaskar, Chris Tosswill, Mosseri, Scott Thomson y Sammi Krug.

Foto por Christophe Wu / Facebook

El botón "Me gusta" no era solo una nueva forma para que los usuarios interactúen en el sitio. Fue una forma en que Facebook pudo alistar a sus usuarios para resolver el problema de cómo filtrar mejor sus propias fuentes de noticias. Que los usuarios no se dieran cuenta de que estaban haciendo esto era quizás la parte más ingeniosa. Si Facebook les hubiera dicho a los usuarios que tenían que clasificar y revisar las publicaciones de sus amigos para ayudar a la compañía a determinar cuántas personas más deberían verlos, habríamos encontrado el proceso tedioso y distraído. El algoritmo de alimentación de noticias de Facebook fue uno de los primeros en reclutar a los usuarios de manera subrepticia para personalizar su experiencia e influir en los demás.

De repente, el algoritmo pudo identificar las publicaciones más populares y hacerlas "virales", un término que se aplicaba previamente a las cosas que se comunicaban de persona a persona, en lugar de transmitirlas de forma algorítmica a una audiencia masiva. Sin embargo, los empleados de Facebook no eran los únicos que podían ver lo que se necesitaba para que una publicación determinada se volviera viral. Los editores, anunciantes, estafadores e incluso usuarios individuales comenzaron a recoger los elementos que las publicaciones virales solían tener en común: las características que parecían desencadenar gustos reflexivos de un gran número de amigos, seguidores e incluso extraños al azar. Muchos comenzaron a adaptar sus publicaciones para obtener la mayor cantidad de "me gusta". Los consultores de redes sociales surgieron para aconsejar a las personas sobre cómo utilizar el algoritmo de Facebook: las palabras correctas para usar, el momento adecuado para publicar, la combinación correcta de palabras e imágenes. "ME GUSTA ESTO", una publicación para sentirse bien imploraría, y la gente lo haría, incluso si realmente no les importara mucho la publicación. No pasó mucho tiempo antes de que los feeds de los usuarios de Facebook comenzaran a sentirse inquietantemente similares: todos estaban llenos de contenido que fue diseñado para volverse viral, gran parte de lo contrario o condescendiente. Se ahogó la sustancia, los matices, la tristeza y cualquier cosa que provocó pensamientos o emociones más allá de un simple pulgar hacia arriba.

Las métricas de compromiso aumentaron, pero ¿era esto realmente para lo que se deberían optimizar las noticias? La pregunta preocupaba a Chris Cox, uno de los primeros empleados de Facebook y el arquitecto intelectual de la fuente de noticias. "Mirar los" me gusta ", los clics, los comentarios y las acciones compartidas es una forma de determinar en qué está interesada la gente", me dice Cox, de 33 años, por correo electrónico. (Ahora es el director de productos de Facebook). "Pero sabíamos que había lugares donde esto era imperfecto. Por ejemplo, puedes leer una publicación trágica en la que no quieras hacer clic en Me gusta, comentar o compartir, pero si te preguntáramos, dirías que realmente te importó haberlo leído. Hace un par de años, sabíamos que necesitábamos ver más que simplemente "me gusta" y "clics" para mejorar el funcionamiento de News Feed en este tipo de casos ".

Un algoritmo puede optimizar para un resultado dado, pero no puede decirle cuál debe ser ese resultado. Solo los humanos pueden hacer eso. Cox y los otros humanos detrás de las noticias de Facebook decidieron que su objetivo final sería mostrar a las personas todas las publicaciones que realmente les interesan y ninguna de las que no lo hacen. Sabían que eso podría significar sacrificar algunos compromisos a corto plazo, y quizás ingresos, en nombre de la satisfacción del usuario. Con Facebook acumulando dinero, y el fundador y CEO Mark Zuckerberg controlando la mayoría de las acciones con derecho a voto, la compañía tuvo el raro lujo de optimizar el valor a largo plazo. Pero eso aún dejó la cuestión de cómo hacerlo exactamente.

Las organizaciones de medios han definido históricamente lo que le importa a su audiencia a través de su propio juicio editorial. Presione sobre lo que hace que una historia valga la pena, y apelarán a valores como la verdad, el interés periodístico y el interés público. Pero Cox y sus colegas en Facebook se han esforzado por evitar poner su propio sello editorial en las noticias. En su lugar, su definición de trabajo de lo que le importa a cualquier usuario de Facebook dado es solo esto: lo que él o ella clasificaría en la parte superior de sus feeds dada la elección. "La forma perfecta de resolver este problema sería preguntar a todos qué historias querían ver y cuáles no, pero eso no es posible ni práctico", dice Cox. En cambio, Facebook decidió preguntar a algunas personas qué historias querían ver y cuáles no. Había alrededor de 1,000 de esas personas, y hasta hace poco, la mayoría vivía en Knoxville, Tennessee. Ahora están en todas partes
Adam Mosseri, el director de productos de Facebook para noticias de 32 años, es la contraparte menos técnica de Alison, una "pelusa" en lugar de una "techie", en el lenguaje de Silicon Valley. Trata con problemas y generalidades, donde Alison se ocupa de soluciones y detalles. Él es el filósofo residente de la fuente de noticias.

El impulso para humanizar las entradas y salidas de la fuente de noticias comenzó bajo el antecesor de Mosseri, Will Cathcart. (Escribí sobre varias de esas innovaciones aquí.) Cathcart comenzó por recopilar formas más sutiles de datos de comportamiento: no solo si alguien hizo clic, sino cuánto tiempo pasó leyendo una historia una vez que hizo clic en ella; No solo si le gustaba, sino si le gustaba antes o después de leer. Por ejemplo: si te gusta una publicación antes de que la hayas leído, Facebook aprendió, se corresponde mucho más débilmente con tu sentimiento real que después de haberle gustado.

Después de tomar las riendas a finales de 2013, la gran iniciativa de Mosseri fue configurar lo que Facebook llama su "panel de calidad de alimentación". Comenzó en el verano de 2014 como un grupo de varios cientos de personas en Knoxville a quienes la compañía pagó para ir a una oficina cada año. día y proporcione comentarios continuos y detallados sobre lo que vieron en sus noticias. (Su ubicación era, dice Facebook, un "accidente histórico" que surgió de un proyecto piloto en el que la empresa se asoció con un subcontratista no identificado). Mosseri y su equipo no solo estudiaron su comportamiento. También les hicieron preguntas para tratar de entender por qué les gustó o no les gustó una publicación determinada, cuánto les gustó y qué hubieran preferido ver en su lugar. "De hecho, escriben un pequeño párrafo sobre cada historia en sus noticias", señala Greg Marra, gerente de productos del equipo de clasificación de noticias. (Este es el grupo que se está convirtiendo en el equivalente de Facebook de las familias de Nielsen).

 "La pregunta era: '¿Qué podríamos estar perdiendo?'", Dice Mosseri. "¿Tenemos puntos ciegos?". Por ejemplo, agrega: "Sabemos que hay algunas cosas que ves en tu feed que te encantaron y sobre las que estabas emocionado, pero en realidad no interactuaste". Una forma de medir eso, el algoritmo devaluaría tales publicaciones en favor de otras que se prestan de forma más natural a los "me gusta" y los clics. Pero, ¿qué señal podría usar Facebook para capturar esa información?
 
Mosseri, el gerente de producto delegado Max Eulenstein y la investigadora de experiencia de usuario Lauren Scissors, supervisan el panel de calidad de los alimentos y le hacen ese tipo de preguntas. Por ejemplo, Eulenstein usó el panel para probar la hipótesis de que el tiempo que un usuario pasa mirando una historia en su fuente de noticias puede ser un buen indicador de que le gusta, incluso si en realidad no hizo clic en "Me gusta". "Especulamos que podría ser, pero podría pensar en razones por las que no lo sería, también", me dice Eulenstein. "Puede ser que haya historias aterradoras o impactantes que mire, pero que no quiera ver". Las calificaciones de los panelistas sobre la calidad de la alimentación permitieron a Eulenstein y Scissors no solo confirmar su corazonada, sino también examinar las sutilezas en la correlación , y empezar a cuantificarlo. "No es tan simple como" 5 segundos son buenos, 2 segundos son malos ", explica Eulenstein. "Tiene más que ver con la cantidad de tiempo que dedica a una historia en relación con otras historias en su fuente de noticias". La investigación también reveló la necesidad de controlar la velocidad de las conexiones de Internet de los usuarios, lo que puede hacer que parezca pasan mucho tiempo en una historia determinada cuando en realidad están esperando que se cargue la página. De esa investigación surgió un pellizco que Facebook reveló en junio, en el que el algoritmo mejoró la clasificación de las historias que los usuarios pasaron más tiempo viendo en sus feeds.

En unos meses, Mosseri y su equipo se habían vuelto tan dependientes de los comentarios del panel que lo tomaron en todo el país, pagando a una muestra demográficamente representativa de personas de todo el país para calificar y revisar sus comentarios de Facebook diariamente desde sus propios hogares. A fines del verano de 2015, Facebook disolvió el grupo de Knoxville y comenzó a expandir el panel de calidad de alimentación en el extranjero. El instinto de Mosseri era correcto: el algoritmo de alimentación de noticias tenía puntos ciegos que los científicos de datos de Facebook no podrían haber identificado por sí mismos. Tomó un tipo diferente de datos (retroalimentación humana cualitativa) para comenzar a llenarlos.

(0) comments

Welcome to the discussion.

Keep it Clean. Please avoid obscene, vulgar, lewd, racist or sexually-oriented language.
PLEASE TURN OFF YOUR CAPS LOCK.
Don't Threaten. Threats of harming another person will not be tolerated.
Be Truthful. Don't knowingly lie about anyone or anything.
Be Nice. No racism, sexism or any sort of -ism that is degrading to another person.
Be Proactive. Use the 'Report' link on each comment to let us know of abusive posts.
Share with Us. We'd love to hear eyewitness accounts, the history behind an article.