in , ,

Cómo Facebook se ha convertido en la cámara de eco más grande del mundo

Comencé mi carrera de investigación en el siglo pasado con un análisis de cómo las organizaciones de noticias se estaban adaptando a esta nueva cosa extraña llamada “Internet”. Cinco años después me inscribí en Twitter y, un año después, en Facebook.

Ahora, cuando celebra su cumpleaños número 14, Facebook se está volviendo omnipresente, y su uso e impacto es central para mi investigación (y para muchos otros).

En 2017, la red social tenía 2 mil millones de miembros, según su propio recuento. La relación de Facebook con el contenido de las noticias es una parte importante de esta ubicuidad. Desde 2008, la compañía ha cortejado a las organizaciones de noticias con funciones como “Connect“, “Share” y “Instant Articles“. A partir de 2017, el 48% de los estadounidenses dependen principalmente de Facebook para obtener noticias e información sobre asuntos de actualidad.

Las redes sociales presentan contenido de noticias de una manera que se integra en el flujo de comunicación personal y de otro tipo. El estudioso de medios Alfred Hermida llama a esto ” noticias ambientales“. Es una tendencia que se ha considerado prometedora para el desarrollo de la sociedad civil. Las redes sociales, como Internet antes, han sido aclamadas como la nueva “esfera pública: un lugar para el discurso cívico y el compromiso político entre la ciudadanía.

Pero, a diferencia de Internet, Facebook no es un espacio público en el que todo el contenido es igual.

Es una empresa privada. Controla qué contenido ves, de acuerdo con los algoritmos y los intereses comerciales. La nueva esfera pública es, de hecho, de propiedad privada, y esto tiene implicaciones de gran alcance para la sociedad civil en todo el mundo.

Cuando una sola compañía actúa como agente de noticias y contenido de actualidad para la mayoría de la población, existe una gran posibilidad de abuso. Facebook no se ve como una “organización de noticias”, por lo que queda fuera de las regulaciones que los países apliquen a “las noticias”. Y su contenido es proporcionado por una miríada de terceros, a menudo con poca supervisión y seguimiento por parte de las autoridades de los países. Así que la capacidad de la sociedad civil para abordar las preocupaciones sobre el contenido de Facebook se vuelve aún más limitada.

Conocer todo sobre ti

El objetivo principal de Facebook es vender publicidad. Lo hace al saber tanto como sea posible acerca de sus usuarios, y luego vender esa información a los anunciantes. La provisión de contenido para atraer a los consumidores a mirar la publicidad no es nuevo: es toda la base de los medios comerciales.

Pero cuando los periódicos solo pueden dirigirse a amplios grupos demográficos en función del idioma, la ubicación y, en cierta medida, el nivel de educación y los ingresos, Facebook puede reducir su mercado objetivo a nivel individual. ¿Cómo? Según los datos demográficos, y todo lo que le gusta, las publicaciones y los comentarios se lo han contado.

Esta capacidad de ajustar el contenido a subconjuntos de la audiencia no se limita a la publicidad. Todo en su feed de Facebook está comisariado y presentado por un algoritmo que busca maximizar su compromiso solo mostrándole cosas que cree que le gustarán y responderán. Cuanto más se involucre y responda, mejor será el algoritmo para predecir lo que le gustará.

Cuando se trata de contenido de noticias y discusión de noticias, esto significa que cada vez verá más material que está en línea con sus intereses declarados. Cada vez más, también, las noticias, los anuncios y las publicaciones de amigos se difuminan en la interfaz. Todo esto se funde en una sola corriente de información.

Y debido a la forma en que está estructurada su red, la naturaleza de esa información se vuelve cada vez más estrecha. Es inherente a los ideales de democracia que las personas estén expuestas a una pluralidad de ideas; que la esfera pública debería estar abierta a todos. La pérdida de esta pluralidad crea una sociedad compuesta de extremos, con pocas esperanzas de consenso o un puente de ideas.

Una Cámara de Eco

La mayoría de los “amigos” de Facebook tienden a ser personas con las que tienen alguna conexión en la vida real: amigos reales, compañeros de clase, vecinos y familiares. Funcionalmente, esto significa que la mayoría de su red estará compuesta principalmente por personas que comparten su amplio perfil demográfico: nivel de educación, ingresos, ubicación, origen étnico y cultural y edad.

El algoritmo sabe con quién en esta red es más probable que se involucre, lo que estrecha aún más el campo a las personas cuya cosmovisión se alinea con la suya. Puede ser amigo de Facebook con su tío Fred, cuyos arrebatos políticos amenazan la tranquilidad de cada reunión familiar. Pero si ignoras sus publicaciones con temas de conspiración y no participas, comenzarán a desaparecer de tu feed.

Con el tiempo, esto significa que su alimentación se vuelve cada vez más estrecha. Muestra cada vez menos contenido con el que puedes estar en desacuerdo o desagradable.

Estas dos respuestas, atractivas e ignorantes, son impulsadas por la mano invisible del algoritmo. Y han creado una cámara de eco. Esto no es diferente de lo que las organizaciones de noticias han estado tratando de hacer durante un tiempo: la puerta de enlace es la expresión de la idea de los periodistas de lo que el público quiere leer.

Los periodistas tradicionales tenían que confiar en su instinto de lo que a las personas les interesaría. La tecnología ahora permite saber exactamente qué personas leen, responden o comparten.

Para Facebook, este proceso ahora lo ejecuta una computadora; un algoritmo que reacciona al instante para proporcionar el contenido que usted cree que desea. Pero este algoritmo bien ajustado y cuidadosamente administrado está abierto a la manipulación, especialmente por intereses políticos y sociales.

Vistas extremas confirmadas

En los últimos años, los usuarios de Facebook involuntariamente se han convertido en parte de un experimento social masivo, uno que puede haber contribuido a la elección igualmente sorprendente de Donald Trump como presidente de los EE. UU. Y el Reino Unido que deciden abandonar la Unión  Europea. No podemos estar seguros de esto, ya que el algoritmo de contenido de Facebook es secreto y la mayor parte del contenido se muestra solo a usuarios específicos.

Es físicamente imposible para un investigador ver todo el contenido distribuido en Facebook; la compañía evita explícitamente ese tipo de acceso. Los investigadores y periodistas necesitan construir cuentas modelo (falsas, violando los términos de uso de Facebook) e intentar engañar al algoritmo para que muestre lo que ven los usuarios políticos más extremistas de la red social.

Lo que han encontrado es que cuanto más extremas sean las opiniones con las que el usuario ya ha estado de acuerdo, más extremo será el contenido que vieron. A las personas a las que les gustó o expresaron su apoyo para abandonar la UE se les mostró contenido que reflejaba este deseo, pero de una manera más extrema.

Si les gustara eso, se les mostraría aún más contenido, y así sucesivamente, el grupo se volvería más y más pequeño y más y más insular. Esto es similar a cómo los grupos extremistas identificarían y cortejarían a los miembros potenciales, atrayéndolos con ideas cada vez más radicales y observando su reacción. Ese tipo de interacción personal fue un proceso lento. El algoritmo de Facebook ahora funciona a la velocidad del rayo y el ritmo de radicalización aumenta exponencialmente.

Theconversation.com

Comentarios

What do you think?

631 points
Upvote Downvote

Total votes: 2

Upvotes: 2

Upvotes percentage: 100.000000%

Downvotes: 0

Downvotes percentage: 0.000000%

Written by @Kadore7

Content editing and Web Programming

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Almagro y HRW celebran que la CPI evalúe ‘aberrantes abusos’ del régimen de Maduro

Una buena vida para Todos dentro de los límites Planetarios