¿La personalización del contenido en línea ha alimentado el populismo al crear cámaras de eco de personas con ideas afines?

¡No! ¡No! ¡NO!

Desafortunadamente, esto es lo que parece estar en la superficie y la gente está de acuerdo rápidamente. Puede navegar a través de una gran cantidad de contenido de medios y análisis crítico en línea con respecto a estas palabras de moda como cámaras de eco y usar una palabra teórica como populismo en un ciclo electoral para justificar las cosas, pero la orden simplemente no se cumple.

Balaji Viswanathan menciona con los artículos que cita sobre cómo las empresas están respondiendo a las críticas públicas ante el zumbido en el que el diagnóstico parece ser este problema: personalización> ecochamers> populismo, por lo que se ve que los candidatos populistas ganan últimamente.

Sin embargo, en la investigación moderna nuestra comprensión de los efectos de los medios, especialmente los efectos de las redes sociales, es limitada, pero lo que tenemos es provocativo y contrarresta el punto. En mi respuesta, voy a abordar todas las partes de esta pregunta. A su vez, seré un contrapunto a la respuesta de Balaji.

En primer lugar, las cámaras de eco en los sitios de redes sociales han sido refutadas. Esto es importante ya que la mayoría de las personas consumen noticias y contenido a través de las redes sociales. Se ha demostrado que las redes sociales tienen una información y una exposición transversal similares, si no más, de Barnbridge [1]. Aquí hay una distribución en su artículo que ilustra el punto.

Lo que estás viendo es una gráfica de distribución media. Cuanto más se extiende en la dirección positiva, más diversa es su percepción del desacuerdo. Cuanto más concentrado o debajo de la línea 0, más me gusta y menos desacuerdo (o acuerdo). Puede consultar el resto del documento aquí.

Su investigación y metodología es un primer paso importante para comprender mejor y desmitificar los algoritmos y cómo pueden ayudar a alimentar diversas conexiones. Hay advertencias obvias en esta investigación, ya que es completamente nueva, pero sería genial construirla y replicarla.

En segundo lugar, cuando miramos el algoritmo de Facebook vemos este fenómeno, esta parte puede resultarle interesante Balaji. Bashky y col. hizo esta pieza realmente genial mirando a los usuarios de Facebook, aquí hay algunas visualizaciones de ella.

Lo que es realmente importante aquí es la Figura B., específicamente la diferencia entre el potencial de la red y la exposición. Está claro que los conservadores ven más información transversal en Facebook, pero a lo que estamos expuestos es casi lo mismo que nuestra red potencial. Esto es significativo para desmitificar nuevamente la idea de las cámaras de eco y, en cambio, las redes sociales que promueven la diversidad de pensamiento. Dado el ritmo de cambio en la tecnología, este artículo se puede tomar con un poco de sal como se publicó en 2015, pero aún así, es una visualización ordenada y es una excelente manera de considerar lo que está sucediendo. [2]

Con esta evidencia, no hay una fuerte garantía en la pregunta para conectar la personalización en las redes sociales a las cámaras de eco. Ahora hablemos del populismo porque esta es la pregunta que subyace a la pregunta:

¿Internet condujo a que Trump ganara de la misma manera que algunos otros populistas que hemos visto (ex filipinos …)?

No. Hay evidencia que muestra que, en el caso habitual de los candidatos democráticos que usan el populismo como un dispositivo de campaña, es impulsado principalmente por la economía, al menos en los Estados Unidos. Abramowitz, un politólogo de Emory, tiene un modelo electoral llamado Time for Change donde el INB / año anterior y la titularidad de las elecciones estadounidenses determinan el ganador. El modelo ha predicho con éxito el ganador cada vez desde 1992 y predijo correctamente a Trump. [3] En Estados Unidos es difícil encontrar un tercer mandato para un partido en las elecciones modernas, la última vez que sucedió fue Bush Sr. y solo duró un mandato.

En general, nuestra comprensión de Internet y las redes sociales está en sus comienzos en el impacto político, pero muchas de las creencias teóricas iniciales sobre lo que veríamos han sido refutadas por un buen trabajo analítico dentro de las ciencias sociales. Para leer más sobre esta área, recomiendo leer esta pieza de Slate que creo que captura la esencia del problema: nos han dicho que estamos viviendo en una era posterior a la verdad. No lo creas

Notas al pie

[1] Archivos compartidos – Acrobat.com

[2] Archivos compartidos – Acrobat.com

[3] Tiempo para cambiar el modelo

Tiene. Y compañías como Facebook y Google ya admitieron las trampas [las actualizaciones del feed de tendencias de Facebook apuntan a noticias falsas a costa de la personalización].

No me gusta la personalización de feeds y evito deliberadamente seguir temas específicos. Me gusta leer periódicos que cubren temas amplios. En el pasado, podía leer un periódico importante y asumir que todas las personas educadas en su país al menos están al tanto de las noticias principales. Sin embargo, en los Estados Unidos no existe una publicación en los medios de comunicación en la que confíen ambos lados de la división política. Lo mismo está comenzando a suceder en otras partes del mundo.

Durante las elecciones estadounidenses y el Brexit, repetidamente les señalé a mis amigos liberales cuán diferente es el mundo que ven de lo que ven los conservadores. Les enviaría enlaces a estos: Blue Feed, Red Feed que le permite ver diferentes perspectivas. Pero, la mayoría volvería a sus cámaras de eco y seguiría creyendo en lo que publican sus amigos. Cómo sesga Facebook tu feed de noticias

La mayoría de nosotros rechazamos ser desafiados cuando se trata de nuestras creencias. Hemos dejado de escuchar cualquier cosa incómoda. Tanto los liberales como los conservadores se han vuelto bastante religiosos y rígidos, sin espacio para la negociación. Con diferentes niveles de tolerancia, la mayoría de nosotros cerramos rápidamente las conversaciones que son demasiado diferentes de lo que creemos.

El aprendizaje ocurre solo con la abrasión y la fricción. Si todo lo que escucha es obvio y agradable, no está aprendiendo nada nuevo. Es solo cuando escuchas algo no obvio que agregas cosas a tu tienda de información. En ese sentido, la mayoría de nosotros hemos reducido la velocidad de nuestro aprendizaje.


Aquí es donde creo que Quora tiene un potencial significativo. Es la única plataforma social con una comunidad global. Twitter tiene uno mucho más grande, pero sus usuarios tienen la capacidad de atención de las mariposas. Se basa en fragmentos de sonido y funciona mejor para la comunicación desafiada. Es genial emocionar a una mafia y levantarlos con sus horcas. Esto lo convierte en la mejor herramienta para los demagogos.

Reddit es un paraíso troll dado su anonimato y falta de moderación en muchos subreddits. LinkedIn es un paraíso para el spam que se usa más para hablar sobre lo genial que es su empresa / producto y establecer un “liderazgo de pensamiento”. Facebook es un paraíso personal donde predomina la conversación con personas con las que compartes creencias. Los principales medios también han empeorado, y los periodistas se han convertido en participantes activos en el drama que los reporteros pasivos.

Eso deja a Quora como la única plataforma donde las personas de todo el mundo pueden venir y tener discusiones profundas y ser cuestionadas sobre sus prejuicios.

Sin embargo, a medida que los feeds de Quora se han vuelto más peores y personalizados, la empresa lamentablemente no se toma esta responsabilidad tan en serio. Se ha complacido con la elección del usuario, como otras redes sociales importantes, y esta alteración está alterando significativamente nuestro panorama político.

Los canales de redes sociales tienen que pensar como los principales medios del pasado y deben darse cuenta de su responsabilidad. Las personas confían en su contenido y el contenido cambia el mundo: de política, negocios, guerra e incluso religiones. No creo que los gerentes de los medios de comunicación social aún no hayan llegado a un acuerdo con eso. Ni siquiera contratan editores de medios veteranos para administrar el proceso.

En lo que respecta a Facebook: No. Los algoritmos de personalización de Facebook contribuyen de manera insignificante a la polarización, que es abrumadoramente el resultado de cómo se forman las amistades humanas.

Evidencia:

Este documento ” Exposición a noticias y opiniones ideológicamente diversas en Facebook ” [1] por Bakshy et al examinó cómo 10 millones de usuarios de Facebook de EE. UU. Interactúan con noticias socialmente compartidas, y estos son sus hallazgos clave:

Si eres liberal:

  1. El 24% de todas las noticias compartidas por tus amigos de Facebook son conservadoras.
  2. El 23% de todas las noticias compartidas por tus amigos de Facebook que aparecen en tu fuente de noticias son conservadoras.
  3. El 20% de todas las noticias compartidas por tus amigos de Facebook en las que haces clic en tu fuente de noticias son conservadoras.

Si eres conservador:

  1. El 35% de todas las noticias compartidas por tus amigos de Facebook son liberales.
  2. El 34% de todas las noticias compartidas por tus amigos de Facebook que aparecen en tu fuente de noticias son liberales.
  3. El 28% de todas las noticias compartidas por tus amigos de Facebook en las que haces clic en tu fuente de noticias son liberales.

La diferencia entre (1) y (2) en ambos casos se debe a la personalización del suministro de noticias, y la diferencia entre (2) y (3) se debe a lo que elegimos hacer clic. ¿Cuál es la clave para llevar? La personalización del suministro de noticias contribuye muy poco (1% en ambos casos) al hecho de que vemos contenido ideológicamente menos diverso. Es principalmente porque tendemos a tener amigos con ideologías similares y también tendemos a no hacer clic en las noticias desde el punto de vista opuesto.

Por supuesto, se podría argumentar que Facebook necesita ajustar su algoritmo de suministro de noticias para asegurarse de que el contenido idealmente opuesto es más probable que aparezca en nuestro suministro de noticias que el contenido idealógicamente similar.

Personalmente, si desea salir de la cámara de eco, realice una de las siguientes acciones:

  • No consumas noticias de Facebook solo.
  • Formar amistades con personas con puntos de vista opuestos.
  • Simplemente haga clic en las noticias con puntos de vista opuestos.

Notas al pie

[1] Exposición a noticias y opiniones ideológicamente diversas en Facebook

La personalización del contenido en línea en realidad puede proporcionar otra forma de monitorear personas malintencionadas y personas con enfermedades mentales. Por ejemplo, una persona suicida busca en la web temas relacionados con los suicidios y cómo sus puntos buenos y los suicidios apuntan, etc. El sistema puede alertar a las autoridades superiores sobre la situación y de esa manera idealmente prevenir suicidios. Sus podrían ser muchas aplicaciones similares. Esto también podría usarse para atrapar bombarderos …

Si y no.

La personalización del contenido en línea también significa la despersonalización de la audiencia humana.

Esto crea populismo al 1) hacer una plataforma para transmitir la voz del servicio prestado que 2) hace que el consumidor sea el producto al generar el beneficio real de 3) anunciantes que manipulan estos medios y las voces en ellos para adaptarse a sus resultados.

De esta manera, la personalización del contenido en línea impulsa cada instancia de cultura e ideas a las que las personas están expuestas a través de los medios hacia el mínimo común denominador, que es lo más populista que se puede hacer para abstraer el pensamiento, en mi opinión.

Las cámaras de eco son simplemente un síntoma de esto.

No hay nada más dulce que la mirada de un tirano, especialmente si está en HD.

no, porque casi cualquiera puede crear una cuenta en un sitio y no estar de acuerdo con nadie.

Aparte de Tumblr. Tumblr mal.