Este artículo fue escrito por Jennifer Golbeck, directora del Laboratorio de Interacción Humano-Computador y profesora asociada en la University of Maryland.
Hace un par de meses, un amigo mío preguntó en Facebook:
¿Creen que Facebook graba todo lo que la gente tipea y luego borra antes de apretar el botón de “publicar”?
Buena pregunta.
Pasamos mucho tiempo pensando en qué postear en Facebook. ¿Deberías argumentar en contra de la opinión política que publicó uno de tus compañeros de secundaria? ¿Quieren realmente tus amigos ver otra foto de tu gato (o hijo)? La mayoría de nosotros, alguna que otra vez, hemos comenzado a escribir algo y luego, sabiamente, hemos cambiado de opinión.
Desafortunadamente, el código que ejecuta Facebook aún sabe lo que escribiste – incluso si decidiste no publicarlo. Resulta que las cosas que decidiste explícitamente no compartir no son del todo privadas.
Facebook llama a estos pensamientos no publicados “autocensura” y es posible encontrar algunos rudimentos de cómo recolectar estas no-publicaciones en un paper escrito recientemente por dos miembros de Facebook. Sauvik Das, un estudiante de doctorado en Carnegie Mellon y practicante de verano en la red social, en conjunto con Adam Kramer, analista de datos en Facebook, han publicado un estudio acerca del comportamiento de autocensura escrito a partir de la recolección de datos de 5 millones de usuarios angloparlantes. Este revela mucho acerca de cómo Facebook monitorea nuestros pensamientos no compartidos y lo que piensa acerca de ellos.
El estudio examinó actualizaciones de estado abortadas, publicaciones en los muros de otras personas y comentarios en publicaciones de otros. Para recolectar lo escrito, Facebook envía un código a tu navegador. El código analiza automáticamente lo que escribes en cualquier recuadro de texto y envía los datos de vuelta a Facebook.
La acumulación de este tipo de textos no es infrecuente en otros sitios. Por ejemplo, si usas Gmail, habrás notado que tus borradores se guardan automáticamente a medida que los escribes. Incluso si cierras el navegador sin guardar, podrás encontrar una copia casi completa del mail que estabas escribiendo en tu carpeta de “Borradores”. Facebook utiliza esencialmente la misma tecnología. La diferencia es que Google guarda tus mensajes para ayudarte. Los usuarios de Facebook no esperan que sus pensamientos no publicados sean recolectados, ni se benefician de ese ejercicio.
Para el lector promedio no está del todo claro el cómo está cubierta esta recolección de datos, por las políticas de privacidad de Facebook. En las políticas de uso de datos de la red social, bajo una sección llamada “Información que recibimos y cómo es utilizada”, se deja en claro que la compañía recolecta la información que eliges compartir o cuando “miras o interactúas de otras formas con cosas”. Pero nada sugiere que recolecta el contenido que decides explícitamente no compartir. Redactar y borrar texto puede ser considerado una forma de interacción, pero sospecho que muy pocos de nosotros esperarían que esos datos fuesen guardados. Cuando me comuniqué con la compañía, un representante me dijo que Facebook cree que esta autocensura es una forma de interacción cubierta por las políticas del sitio.
Qué estás pensandoEn su artículo, Das y Kramer aseguran que el código sólo informa a Facebook de tu decisión de autocensura y no del contenido redactado. El representante de Facebook con el que hablé confirmó que la compañía no recolecta el texto de las publicaciones autocensuradas. Pero ciertamente eso es tecnológicamente posible y está claro el interés de Facebook en el contenido de tus publicaciones autocensuradas. El artículo de Das y Kramer cierra con lo siguiente: “hemos llegado a un nivel mayor de comprensión acerca de cómo y dónde se manifiesta la autocensura en las redes sociales; pronto, necesitaremos entender de mejor manera qué y por qué”. Esto implica necesariamente que Facebook quiere saber lo que estás escribiendo, para luego entenderlo. El mismo código que Facebook usa para revisar la autocensura, puede transmitirle a la compañía el contenido de tu no-publicación, por lo que este siguiente paso es tecnológicamente posible de inmediato.
Es sencillo conectar toda esta historia con las noticias recientes acerca de la vigilancia llevada a cabo por la NSA. A nivel superficial, es bastante similar. Una organización recolecta metadatos – esto es, todo menos el contenido de un acto de comunicación – y la analiza para comprender de mejor manera el comportamiento de las personas. Sin embargo, existen algunas diferencias importantes. Al tiempo que nos parece incómodo que la NSA tenga acceso a nuestras conversaciones privadas, la agencia monitorea contenidos que de hecho hemos decidido publicar online. Facebook, por otra parte, analiza pensamientos que hemos decidido expresamente no publicar.
Esto puede estar más cerca de los informes recientes acerca de la capacidad del FBI de encender una webcam sin activar el indicador respectivo, con el fin de monitorear criminales. Las personas que son vigiladas a través de las cámaras de sus computadores no están decidiendo compartir un vídeo de ellos mismos, tal y como las personas que se autocensuran en Facebook no están eligiendo compartir sus pensamientos. La diferencia es que el FBI necesita una orden judicial, mientras que Facebook puede proceder sin permisos de nadie.
¿Cuál es el interés de Facebook? Das y Kramer argumentan que la autocensura puede ser negativa, debido a que retiene información valiosa. Si alguien decido no publicar, aseguran, “[Facebook] pierde valor debido a la falta de generación de contenidos”. Después de todo, Facebook te muestra anuncios basados en lo que posteas. Más aún, argumentan que no es justo que alguien decida no publicar en un intento de no spammear a sus cientos de amigos – algunas personas podrían estar interesadas en el mensaje. “Considera, por ejemplo, al estudiante universitario que desea promover un evento social para un grupo de interés particular, pero no lo hace con el temor de spammear al resto de sus amigos – algunos de los cuales podrían, de hecho, apreciar su esfuerzo”.
Esta visión paternalista no es abstracta. Facebook estudia estas acciones debido a que mientras más entiendan sus ingenieros acerca de la autocensura, estos pueden afinar con mayor precisión su sistema para minimizar la prevalencia de la autocensura. Este objetivo – diseñar Facebook para disminuir la autocensura – está explícito en el paper.
Así, Facebook considera que tu sentida discrecionalidad acerca de qué contenidos compartir es mala, debido a que reduce el valor de Facebook y de otros usuarios. Facebook monitorea estos pensamientos no compartidos para entenderlos de mejor manera, con el fin de construir un sistema que minimice este comportamiento deliberado. Esto se siente peligrosamente cercano a “todo lo que sucede debe saberse”, el slogan de la compañía digital distópica en la novela más reciente de Dave Eggers, El Círculo.
La nota es parte de Future Tense, una colaboración entre la Arizona State University, el New American Foundation y Slate. Future Tense quienes exploran las formas en que las tecnologías emergentes afectan a la sociedad, la política y la cultura. Para leer más, visita el blog de Future Tense y su página web.
No hay comentarios:
Publicar un comentario