Iese

Logo Iese Insight

Cómo evitar que las redes sociales dividan la sociedad

Qué pueden hacer empresas y gobiernos para que las redes sociales dejen de erosionar la democracia.

Usuario mirando el menú de aplicaciones de redes sociales en su teléfono móvil.
1 de mayo de 2026

Por Itziar Castelló Molina

En 2010, tuve el privilegio de acudir a las universidades californianas de Stanford y Berkeley durante un año, justo cuando despegaban plataformas como Facebook y Twitter. Por entonces, eran redes sociales divertidas, populares e inclusivas. Su papel de altavoz fue decisivo para los movimientos prodemocracia que se extendieron por África del Norte y Oriente Próximo en 2010 y 2011; tanto, que a la Primavera Árabe se la llamó la “revolución de Twitter”. Mis primeros estudios sobre redes sociales versaron, en gran parte, sobre fenómenos positivos como estos.

En 2026, el panorama es muy distinto. Aclamadas en su día como paladines de la democracia y el diálogo, hoy se han convertido en espacios mercantilizados cuyos modelos de negocio incentivan los discursos de odio, la desinformación, la polarización y la fragmentación política; una dinámica que beneficia a las élites empresariales y políticas, pero erosiona la democracia.

No todo el mundo lo ve así. Journal of Management Studies nos invitó recientemente a mí y a unos colegas a debatir si las redes sociales constituían, en efecto, una amenaza para la democracia. En mi opinión sí, y precisamente por las mismas razones que otros esgrimen para defenderlas: la fe en que el mercado se autorregulará y en que más tecnología resolverá el problema. Ambas perspectivas me parecen insuficientes para proteger la democracia. A continuación, explico por qué y qué pueden hacer los directivos y los responsables políticos ante estos riesgos.

Las perspectivas de mercado, tecnológica y política en las redes sociales

Las redes sociales se han analizado desde dos enfoques principales:

  • La perspectiva de mercado, según la cual estas plataformas funcionan como un “mercado de las ideas”. Abogan defender las dinámicas autorreguladoras del mercado y ven los daños a la sociedad como externalidades de los fallos de mercado.
  • La perspectiva tecnológica, según la cual las soluciones tecnológicas descentralizadas facilitan el acceso a una información que permite a los ciudadanos participar en la toma de decisiones. Esto hace que las redes sociales sean abiertas, inclusivas y participativas.

Ambos enfoques tienen valor para la democracia, pero también presentan limitaciones, ya que no reflejan importantes principios que deben tenerse en cuenta para el buen funcionamiento de procesos de deliberación colectivos y toma de decisiones democráticas.

Los algoritmos favorecen los contenidos emocionales, lo que mina la calidad del debate y convierte el “mercado de las ideas” en cámaras de eco polarizadas donde las mejores ideas, por no hablar de las veraces, tienen pocas posibilidades de abrirse paso. Aunque la tecnología ofrezca un espacio de debate, no basta con que sea abierto y participativo: debe fomentar una argumentación de calidad, no solo la confrontación.

Propongo una tercera perspectiva –la política–, para enfatizar el rol de las redes sociales en la creación de opinión. Las redes se han convertido en una esfera pública en la que el debate está manipulado por algoritmos, socavando las normas y los ideales democráticos.

Cómo la politización de las redes sociales degrada la democracia

No todas las redes sociales son iguales. Mastodon y Bluesky no juegan todavía en la misma liga que YouTube, Facebook, Instagram, X o TikTok, que aglutinan la inmensa mayoría de los usuarios activos. Ahí es donde residen las mayores amenazas, por su enorme concentración de poder.

Sus modelos de negocio levantan barreras que dificultan el abandono de estas plataformas. Su rentabilidad depende de mercantilizar las interacciones sociales y, para maximizarlas, el algoritmo premia los contenidos sensacionalistas o extremos, los que más probabilidades tienen de provocar una reacción. Varios informantes de estas compañías han denunciado que sus directivos los presionaban para permitir más contenidos cuestionables en los feeds de los usuarios, alegando que la indignación genera una mayor interacción.

Tampoco puede ignorarse cómo agentes malintencionados han explotado estas características para interferir en procesos electorales y decantar los resultados a su favor, socavando la integridad de unos comicios que deberían ser libres y justos.

A pesar de sus declaraciones, estas plataformas no son ni imparciales ni neutrales. La rehabilitación de cuentas vetadas o los recortes en moderación de contenidos son decisiones políticas. La compra de Twitter por parte de Elon Musk para alinearla con causas abiertamente conservadoras –y volcar todo su peso en la reelección de Donald Trump– liquidó cualquier pretensión de que las redes sociales son un ágora neutral.

La perspectiva de mercado pudo ser suficiente hace veinte años, cuando las plataformas eran meros espacios de intercambio de información y las infraestructuras tecnológicas, esta vez sí, un medio digital para fomentar la participación ciudadana de forma barata, fácil y rápida. Sin embargo, estas perspectivas –que inspiraron en gran medida la regulación y la legislación iniciales del espacio digital– no previeron cómo las plataformas terminarían moldeando, cuando no distorsionando, la opinión pública.

El ideal democrático aspira a que las opiniones individuales confluyan en decisiones colectivas orientadas al bien común. Con las redes sociales actuales, esas opiniones no alumbran una comprensión compartida, sino burbujas en las que mantenemos posturas aisladas y atomizadas. Además, las opiniones que circulan no nacen de la exposición a múltiples fuentes de calidad (el “mercado de las ideas”). Las redes han despojado la información de profundidad y análisis, de modo que nos aferramos a ideas sobre las que no hemos reflexionado de forma crítica ni fundamentada.

Hay muchas decisiones que deben tomarse de forma colectiva, pero sin una realidad compartida ni una comprensión común, ¿cómo legislamos, por ejemplo? ¿Qué es aceptable en nuestros barrios? ¿Construimos una carretera? ¿Hacemos un parque? ¿Plantamos árboles?

Antes de las redes sociales, este tipo de debates tenía lugar en foros públicos donde, tras un proceso de deliberación reconocido como legítimo, se alcanzaba un consenso aceptado por la mayoría, aunque no fuera la opción preferida de todos.

El poder y partidismo de las redes han trastocado este proceso de construcción normativa, uno de los pilares fundamentales de la democracia deliberativa. Las plataformas poseen la infraestructura en la que se median los debates y se forman las opiniones, lo que les otorga una influencia desmesurada sobre la opinión pública y les permite eludir los cauces democráticos.

¿Qué podemos hacer?

Mis colegas y yo proponemos medidas concretas para mejorar la capacidad democrática de las plataformas. Apuntan a la transparencia, responsabilidad, apertura e inclusión, pero también a dos aspectos que merecen especial atención:

  • La capacidad de fomentar un debate constructivo, con un intercambio de ideas y un diálogo enriquecedores.
  • La capacidad de generar impacto, es decir, de traducir ese debate en políticas públicas que tengan un efecto positivo en la sociedad.

Medidas urgentes para los directivos

La mayor responsabilidad recae en las empresas que gestionan o diseñan las redes sociales. No obstante, cada uno –en mayor o menor grado, ya sea a través de la publicidad u otros intereses comerciales– debe ser consciente de la dimensión política de su actividad en estas plataformas. No es solo una cuestión de reputación. He aquí algunas medidas concretas:

Garantizar sistemas fiables de verificación de credenciales

Las plataformas deberían contar con mecanismos más sólidos para validar la experiencia y los conocimientos de los usuarios, similares al de la insignia azul de Twitter, que X desvirtuó con su modelo de pago. Durante la pandemia de COVID-19, Facebook verificó a expertos sanitarios y borró o señaló los bulos médicos. Ahora que las plataformas delegan en la IA más que en los moderadores humanos, sus procesos de verificación se han vuelto poco fiables. No es fácil equilibrar la participación de los expertos con la del resto de usuarios, pero precisamente por eso es necesario avanzar hacia un sistema de verificación más serio y transparente, que salga de la opacidad algorítmica en la que está sumido hoy.

Alentar una participación más constructiva que reactiva

Es fundamental que las plataformas rediseñen su arquitectura algorítmica para evitar la amplificación de contenidos emocionalmente incendiarios. Se trata de equilibrar el filtrado de los discursos de odio con el respeto a la diversidad de opiniones. Herramientas como el formato dúo, que permite interactuar de tú a tú con la pantalla dividida, podrían aprovecharse mejor para facilitar diálogos reales, en el que los usuarios desarrollen sus ideas conversando en lugar de limitarse a reaccionar a la defensiva.

Implementar algoritmos de recomendación más inteligentes

Más allá de “inyectar” puntos de vista opuestos de forma aleatoria en los feeds de los usuarios, los algoritmos de recomendación, como los que utiliza Amazon para sugerir productos, deberían identificar y promover contenidos que sirvan de puente entre distintas comunidades, conectando conversaciones cercanas con una visión de conjunto del debate público.

Fomentar una interacción sostenida

La arquitectura de las plataformas se rige hoy por métricas de atención a corto plazo y por la tasa de abandono de usuarios. Los temas del momento y los contenidos virales prevalecen frente a un debate pausado sobre cuestiones de gran relevancia social. Las plataformas deberían identificar temas importantes de interés público y, a partir de ahí, crear espacios y mecanismos que promuevan una participación prolongada. Podrían, por ejemplo, recompensar a los usuarios que aporten valor y reflexión a lo largo del tiempo más que reacciones rápidas y simplistas mediante emojis.

Medidas urgentes para los responsables políticos

La gobernanza democrática conlleva una serie de tensiones intrínsecas: entre la participación de expertos y no expertos, entre diversidad y consenso, entre centralización y descentralización o entre flexibilidad y estabilidad. No se trata de eliminar estas tensiones, sino de equilibrarlas y gestionarlas bien en aras de la salud democrática de la sociedad. ¿Es positivo que todos los niveles de conocimiento tengan el mismo peso o que se socave sistemáticamente el valor de la experiencia? ¿Merece más atención un influencer, cuya autoridad deriva de la popularidad y el carisma, que un médico, sociólogo, científico o académico?

Estas preguntas, bien conocidas por los responsables políticos, gobiernos y otros actores institucionales de las sociedades democráticas, exigen respuestas concretas:

Redefinir las plataformas

Reconceptualizar las redes sociales como instituciones democráticas exigiría un contrato social entre esas empresas y sus grupos de interés, no solo los accionistas, para salvaguardar su función de servicio público.

Reforzar los marcos regulatorios

La Ley de Servicios Digitales de la UE establece mecanismos de supervisión obligatorios e incorpora a la sociedad civil en la gobernanza de las plataformas, pero resulta insuficiente en lo que respecta al control de los algoritmos. Si las plataformas se reconceptualizan como instituciones democráticas, y no solo como empresas privadas orientadas a maximizar los beneficios para sus accionistas, será necesario desarrollar mecanismos de gobernanza y supervisión regulatoria distintos de los que se aplican a las infraestructuras tecnológicas tradicionales.

Crear redes sociales de servicio público

Emular el modelo de la BBC u otros entes públicos de radiodifusión permitiría integrar la deliberación, inclusión y participación ciudadana como pilares fundamentales, con un mandato de servicio público claramente recogido en su licencia operativa. Estas redes sociales estarían gobernadas por organismos de supervisión independientes con competencias legales sobre contenidos y arquitectura algorítmica.

Trocear las grandes tecnológicas

No es una propuesta tan radical como parece: así se reduciría la concentración de poder y la amplificación algorítmica de contenidos polarizadores. La historia ofrece ejemplos sobrados de empresas privatizadas que acabaron troceadas y devueltas al control público tras producir fallos en el servicio o externalidades negativas para la sociedad.

La intervención del Estado ante un sector claramente disfuncional, como son hoy muchas redes sociales, cuenta con una larga lista de precedentes en Estados Unidos, desde Standard Oil a principios del siglo XX hasta AT&T en los años ochenta. Al fin y al cabo, corresponde a los gobiernos, por función y responsabilidad, tomar este tipo de decisiones. Si las plataformas no cumplen ciertas normas, entra dentro de sus competencias impedir prácticas ilegales, dañinas o contrarias a la competencia.

Los tribunales también empiezan a actuar: en marzo de 2026, un jurado de Los Ángeles declaró a Meta y YouTube negligentes en el diseño de sus plataformas y determinó que esa negligencia causó daño demostrable a una menor, abriendo la puerta a otros casos similares pendientes. El caso antimonopolio contra Google, actualmente en apelación, apunta en la misma dirección.

Muchos países siguen de cerca la pionera decisión del Gobierno australiano de prohibir el acceso de los menores de 16 años a las redes sociales (incluidas Facebook, Instagram, Kick, Reddit, Snapchat, Threads, TikTok, Twitch, X y YouTube), ya que se plantean adoptar medidas similares. España anunció en febrero de 2026 su propio proyecto de veto, que busca corregir las debilidades técnicas de los sistemas de verificación de edad detectadas en Australia, además de tipificar como delito la manipulación de algoritmos que amplifiquen contenidos dañinos.

En 2024, el Tribunal Supremo de Brasil prohibió X por difundir desinformación sobre las elecciones presidenciales, ordenó el cierre de sus oficinas y bloqueó las cuentas de Starlink, el proveedor de internet satelital de Elon Musk. Pese a su airada reacción inicial, Musk pagó una multa de cinco millones de dólares y acató las órdenes judiciales para que se restableciera el servicio de X. Este caso demuestra que existen mecanismos legales para obligar a las redes a cumplir las normas democráticas. Basta con que los gobiernos tengan la determinación de ejercer su autoridad.

Qué podemos hacer a nivel individual

Si la gobernanza democrática debe representar la voluntad popular, muchas de las reformas que propongo empiezan por que los ciudadanos exijan más de lo que reciben. Las restricciones al uso de redes por parte de menores son fruto de iniciativas ciudadanas y de campañas de movilización que han logrado colocar estas preocupaciones en la agenda política. La imposición de determinadas limitaciones depende de que exista un consenso social amplio. Para ello, se requiere:

Alfabetización ciudadana

Más educación sobre los mecanismos de las redes sociales y el impacto de nuestras interacciones digitales.

Participación consciente

Los ciudadanos podemos ser mucho más responsables con nuestras aportaciones y nuestra influencia en el debate digital.

Desconexión digital

Fomentar movimientos como el minimalismo digital no es ludismo, sino un uso más intencional y consciente de la tecnología y las redes sociales, reconociendo su capacidad adictiva y sus posibles efectos tóxicos.

Aprendizaje continuo

Todos debemos seguir desarrollando nuestras competencias digitales, sobre todo en materia de ciberseguridad y protección de datos. Para ello, hacen falta más talleres y programas de formación accesibles –en empresas, bibliotecas, colegios, centros cívicos y otras organizaciones comunitarias–, con especial atención a los colectivos vulnerables para reducir la brecha digital.

Ha llegado el momento de redefinir nuestra visión de las redes sociales. Estas plataformas han dejado de ser meras herramientas de comunicación para formar parte del engranaje de la democracia. Sus políticas de diseño y gestión se deben considerar decisiones políticas y, como tales, deben estar sujetas al mismo escrutinio que cualquier organismo con responsabilidades públicas.

Está claro que las redes juegan un papel muy importante en la formación de la opinión pública y en cómo debatimos asuntos relevantes y alcanzamos decisiones colectivas. Por ello, es más importante que nunca formularnos la siguiente pregunta: ¿más allá de darnos voz, mejoran nuestra capacidad deliberativa como ciudadanos, potencian un debate verdaderamente democrático y fortalecen la salud de nuestras democracias?

+INFO:

Social media is a threat for democracy! A political perspective for analyzing and diminishing harm”, de Itziar Castelló, Elanor Colleoni, Andreas Georg Scherer yHannah Trittin-Ulbrich, en Journal of Management Studies (2025).

Los otros puntos de vista en el debate:

Artículo basado en la sesión que impartió Itziar Castelló Molina en el campus del IESE en Barcelona en febrero de 2026, organizada por el Instituto de Liderazgo Sostenible de la escuela.

Este artículo forma parte de la revista online IESE Business School Insight núm. 172 (mayo-agosto 2026).


TAMBIÉN PUEDE INTERESARTE:

Así se propaga la desinformación en redes

Ciberseguridad y empleados: conviértelos en tu mejor defensa

Itziar Castelló Molina

Profesora de Sostenibilidad y Economía Digital en Bayes Business School (antes Cass) de City St. George’s, Universidad de Londres, donde también es directora del Social Purpose Group y del programa de Máster en Sostenibilidad. Su investigación explora cómo se articulan y construyen los debates sobre la sostenibilidad y el cambio climático, especialmente en las redes sociales.