El dilema del tranvía. Sobre ética y tecnología

El ensayo propone una reflexión sobre el impacto de la tecnología, puesta al servicio de las economías de plataforma, en la capacidad de discernimiento ético de las sociedades contemporáneas,. En un contexto cada vez más mediado por plataformas digitales y algoritmos, se observa una creciente delegación de decisiones éticas en sistemas automatizados, lo que debilita tanto el juicio moral individual como el colectivo. La desconexión de las juventudes con el conflicto ético, sumada al reemplazo del debate por burbujas algorítmicas, impacta no solo en la salud mental, sino también en la calidad democrática y en el creciente debilitamiento del poder ciudadano. Ante este panorama, se impone con urgencia la necesidad de repensar políticas públicas, mecanismos de gobernanza digital y estrategias de alfabetización crítica, con el fin de recuperar la autonomía moral y fortalecer la democracia en la era digital.

Por: Hernán Martini / Arte: Ivana Vollaro

El dilema del tranvía. Sobre etica y tecnologia

Imaginá que un tranvía está fuera de control y se dirige a cinco personas atadas a las vías. Podés accionar un interruptor para desviar el tranvía hacia otra vía, donde solo hay una persona. ¿Qué harías? Este es el clásico dilema del tranvía, un experimento ético que nos obliga a tomar decisiones difíciles sobre a quién salvar y a quién sacrificar1

El desarrollo de nuestra identidad, está atravesada por una sucesión de dilemas como esté2. En cada momento de nuestra vida tomamos decisiones que forjan nuestro carácter, nuestra percepción del mundo y la que el resto tiene sobre nosotros y nosotras. En gran parte, esto está ligado a la forma que adquiere una sociedad y cómo se vinculan sus individuos. Pero sucede que nuestra forma de comunicarnos está en un proceso de transformación evidente que está marcado por la mediación tecnológica. Pasamos un tiempo más que considerable “en línea”, y nuestros roles en tanto consumidores, comerciantes, pacientes, trabajadoras, vecinos, padres o madres, están mediados por tecnología y redes que regulan la calidad y la forma de los mensajes.3

¿Cuántas horas al día pasamos en Internet?
Encuesta a usuarios de internet de 16 a 64 años. Datos del tercer trimestre de 2023.
Fuente: GWI vía DataReportal.

Sin embargo, en este mundo cada vez más digitalizado, hemos empezado a perder la práctica de enfrentar dilemas éticos directamente. En lugar de tomar decisiones difíciles, las plataformas tecnológicas han comenzado a resolverlas en nuestro lugar. Los algoritmos moderan el contenido, eliminan conflictos y priorizan lo que vemos, construyendo un entorno donde los dilemas parecen desaparecer. Esta delegación puede parecer conveniente, pero tiene un costo: atrofia nuestra capacidad de discernimiento ético y nos desconecta de las implicancias de nuestras acciones. Si ya no enfrentamos decisiones que moldean nuestro carácter y nuestra sociedad, ¿qué sucede con nuestra capacidad para construir un mundo más justo y conectado?

Un ejemplo claro del dilema del tranvía aplicado aparece en la película Yo, Robot4. En una escena crucial, el protagonista, recuerda un accidente automovilístico donde él y una niña quedan atrapados en vehículos hundiéndose en el agua. Un robot aparece para salvar a uno de ellos y, utilizando un cálculo estrictamente matemático basado en probabilidades de supervivencia, decide rescatar a Spooner porque tenía más posibilidades de sobrevivir que la niña. Esta decisión, aunque lógica desde la perspectiva de la máquina, ignora las dimensiones humanas y emocionales del dilema. La escena plantea una pregunta inquietante: ¿qué pasa cuando delegamos decisiones éticas en sistemas que carecen de empatía y de comprensión del contexto humano? Este dilema no solo es ficción; lo enfrentamos hoy con tecnologías como vehículos autónomos, IA en el ámbito judicial5 y algoritmos de moderación, donde las máquinas deciden quién «vive» o qué contenido permanece visible, basándose únicamente en reglas programadas a fines comerciales, sin considerar el impacto humano. Cuándo se toman decisiones basadas en algoritmos (opacos en su mayoría), se cristalizan conceptos y quedan fuera del terreno de la disputa política democrática en un marco institucional.  No solo por la falta de transparencia, de lo que opera sobre ese algoritmo o incluso los datos que se utilizan para construirlos, sino porque se presentan de manera objetiva ocultando los intereses que perpetúan sesgos y prejuicios. 

Las plataformas tecnológicas deciden qué contenido moderar, qué información priorizar y, en última instancia, cómo estructurar el espacio público digital. Sin embargo, aquí hay una diferencia crucial: las decisiones no están en nuestras manos, sino en las de los dueños de estas plataformas. Ellos son quienes accionan el interruptor, mientras el resto observamos cómo su poder configura nuestras vidas. Un claro ejemplo es la reciente promesa de Mark Zuckerberg de «devolver la libertad de expresión» en Instagram y Facebook6 , tras el anuncio de eliminar los sistemas de verificación de datos. Pero, ¿qué significa realmente esta «libertad»? En un espacio digital donde los algoritmos deciden qué mensajes se amplifican y cuáles se silencian, esta promesa no devuelve el control a los y las usuarias, sino que consolida aún más el poder de quienes gobiernan las plataformas. Más aún, se trata en la práctica, una declaración de gobernanza privada sobre un espacio público, que afecta a miles de millones de personas usuarias.

Incluso en las propias declaraciones oficiales de Meta, queda claro que las plataformas como Instagram y Facebook funcionan como espacios públicos digitalizados. El concepto de «libertad de expresión», utilizado por Mark Zuckerberg para justificar la eliminación de la verificación de datos, no tendría sentido en un contexto estrictamente privado. La libertad de expresión es un principio que pertenece al ámbito público,7 diseñado para garantizar la participación igualitaria en debates y la circulación de ideas en una sociedad democrática. Al usar este lenguaje, Meta no solo reconoce implícitamente que sus plataformas son espacios públicos, sino que también actúa como el principal regulador de esos espacios, concentrando en sus manos un poder que debería ser compartido por la sociedad. Esto plantea una contradicción fundamental: ¿cómo puede haber libertad de expresión en un espacio que es gestionado como propiedad privada, donde las reglas y decisiones son determinadas unilateralmente por una sola empresa? 

En este contexto, nos enfrentamos a una paradoja inquietante. Nos dicen que estas plataformas promueven la «libertad de expresión» y el acceso igualitario a la información, pero en realidad operan como espacios públicos privatizados, donde sus dueños son los únicos que toman las decisiones críticas. ¿Qué sucede con una sociedad que ya no enfrenta dilemas éticos porque estos son resueltos por algoritmos o empresarios? ¿Qué precio pagamos al delegar nuestra autonomía moral en manos de monopolios tecnológicos? 

Cuando plataformas como Meta toman decisiones de gran escala (como eliminar la moderación), en realidad están centralizando el poder en sus manos, reduciendo aún más la influencia de los gobiernos, siendo estos los únicos organismos donde los ciudadanos y ciudadanas aparentemente libres pueden decidir sobre cómo quieren organizar su vida en sociedad. Lo que se disfraza como libertad, es en realidad un desbalance abrumador de poder entre quienes tienen el poder de moldear la sociedad y quienes no lo tienen en absoluto.8 

Es en este sentido que es una contradicción que se diga que se espera mayor democracia y a la vez negar que se trate de un tipo de espacio público. Si es efectivamente un espacio público, no debería ser regulado por una persona como dueña. La sociedad debería tener jurisdicción sobre la organización y reglas del espacio de comunicación pública. Prometer mayor democracia mientras se controla el espacio público digital como propiedad privada es una contradicción insostenible. Si aceptamos que las redes sociales son esenciales para el debate público y la democracia, también debemos aceptar que su gobernanza9 no puede quedar en manos de una sola persona o empresa.

Pero el problema se profundiza aún más. Si una sociedad cada vez menos enfrenta dilemas éticos porque las decisiones son delegadas a otros, como los dueños de plataformas tecnológicas, se genera un impacto profundo no solo en nuestra capacidad individual de discernimiento ético, sino también en la estructura misma de la sociedad. Perdemos la oportunidad de practicar nuestra capacidad de juicio ético, una habilidad que requiere ejercicio constante para desarrollarse. Al dejar que la tecnología tome decisiones en nuestro lugar, las personas comienzan a asumir que las respuestas están predefinidas y dejan de cuestionarse si algo está bien o mal porque «ya lo decide un algoritmo». Esta dependencia no solo nos desconecta de las implicancias morales de nuestras acciones, sino que también debilita la sensación de control sobre nuestras vidas. Al no enfrentar dilemas directamente, nos volvemos más pasivos o pasivas, y menos responsables, dejando que otras (personas o  cosas) determinen el rumbo de nuestras decisiones y, por ende, de nuestra sociedad.

No es casual que llamemos «generación de cristal» a esta generación que nació «conectada» a las redes sociales. Las juventudes que han crecido en un entorno digital donde la tecnología no solo media, sino que regula gran parte de sus interacciones, enfrentan desafíos únicos en su socialización. Son suficientes los estudios que señalan un aumento alarmante en los niveles de depresión, ansiedad y ataques de pánico entre las personas menores de 20 años.10 No es raro que en cualquier grupo de jóvenes haya alguien que haya experimentado un ataque de pánico o episodios de ansiedad severa. Este fenómeno no puede separarse del contexto en el que están siendo socializados: un mundo donde los dilemas y las decisiones políticas parecen haber sido eliminadas de sus vidas. Las plataformas deciden por la juventud,  los algoritmos eligen qué ven y cómo interactuan, y las conversaciones incómodas o los conflictos son moderados, eliminados o ignorados por las reglas de la tecnología. Así, esta generación crece sin la práctica de afrontar conflictos, asumir riesgos morales o navegar la incertidumbre, habilidades esenciales para desarrollar resiliencia emocional y pensamiento crítico. En su lugar, enfrentan un entorno artificialmente controlado que, lejos de proteger a la juventud,  la deja más vulnerable frente a los retos del mundo real. Ante cualquier situación, la capacidad de resolver problemas se reduce. 

Cuando delegamos decisiones éticas a plataformas, asumimos un rol pasivo como ciudadanos. La moralidad se externaliza y, en lugar de desarrollar nuestros propios principios, comenzamos a depender de las «reglas de la comunidad» impuestas por plataformas como Meta, Instagram o TikTok. Estas reglas no están diseñadas para fomentar el desarrollo ético de quienes las usan,  sino para maximizar la interacción y proteger los intereses comerciales de las empresas. Así, nuestras nociones de lo que es correcto o incorrecto no surgen de un proceso reflexivo o colectivo, sino de las decisiones unilaterales de un puñado de corporaciones. Esta dependencia reduce nuestra capacidad para enfrentar disyuntivas de manera autónoma, fomentando una ciudadanía que no cuestiona, ni discute y no participa activamente en la construcción de normas sociales. En última instancia, nos desconecta de la responsabilidad sobre nuestras propias acciones, transfiriendo el poder de decidir a algoritmos y ejecutivos cuyo interés principal no es la justicia, sino la rentabilidad. La delegación de poder en base a la tercerización de dilemas morales es completa. 

Lo más preocupante de este proceso no es que nos estemos «volviendo malos», sino que estamos perdiendo la capacidad de discernir, o más bien de decidir, lo que es bueno y lo que es malo. Este deterioro no se traduce en un aumento deliberado de comportamientos inmorales, sino en una creciente apatía. Las decisiones, antes intrínsecas a nuestra vida cotidiana, ahora son delegadas a algoritmos y plataformas que nos dicen qué contenido es apropiado, qué discursos son válidos y qué problemas debemos priorizar. Este acto de tercerización constante nos despoja de nuestra autonomía, dejándonos en un estado de dependencia donde ya no ejercitamos la reflexión ni asumimos responsabilidad por nuestras acciones o juicios. Si no practicamos la ética, ¿cómo podemos desarrollar nuestra brújula moral?

La falta de enfrentamiento con el conflicto también tiene un impacto directo en la democracia. Por un lado, genera desinterés en el debate público, ya que si las plataformas “resuelven” los conflictos que deberíamos resolver, la ciudadanía se desengancha del proceso colectivo de decidir y dialogar activamente. Por otro lado, provoca una reducción de la empatía política, porque la empatía se desarrolla al enfrentar problemas y comprender perspectivas opuestas. Sin este ejercicio, perdemos la capacidad de convivir con ideas diferentes, y las plataformas digitales refuerzan este aislamiento con lo que ya conocemos como cámaras de eco.11

Pero el problema va más allá del simple filtro algorítmico que nos muestra solo lo que confirma nuestras creencias. El impacto social está en el fomento de la comodidad de ser parte de un grupo donde los dilemas ya están resueltos de forma algorítmica. En este contexto, no solo desaparece el ejercicio ético, sino que cualquier grupo que piense diferente se convierte en una amenaza seria para la frágil identidad construida digitalmente. Esa fragilidad es el combustible de discursos violentos, que rara vez quedan solo en palabras. Estos conflictos, amplificados por la dinámica de polarización de las plataformas, erosionan el tejido democrático y refuerzan divisiones que, en lugar de ser confrontadas y resueltas, se profundizan y perpetúan. 

De hecho, y ahí está el negocio, la debilidad de los gobiernos para regular a las grandes tecnológicas no se explica únicamente por limitaciones técnicas o falta de infraestructura. El verdadero obstáculo está en la influencia descomunal que estas empresas ejercen a través de su poder económico, su capacidad de lobby, sobre todo, su control sobre la mal llamada «opinión pública»12. Las plataformas no solo son intermediarias en los flujos de comunicación, sino que las dirigen y moldean, estableciendo qué temas se debaten, cuáles se amplifican y cuáles se silencian. Esto les otorga una capacidad sin precedentes para moldear narrativas y presionar indirectamente a los gobiernos, que dependen de estas mismas plataformas para conectar con la ciudadanía. 

El escándalo de Cambridge Analytica13 es un ejemplo revelador: a pesar de las multas, las sanciones y el impacto global del caso, Meta mantuvo su dominio prácticamente intacto. Este episodio demostró cómo el uso indebido de datos personales y la manipulación de la opinión pública pueden pasar casi impunes cuando el poder de las plataformas supera al de quienes lo regulan. En lugar de corregir estas dinámicas, las tecnológicas han consolidado su posición como árbitros invisibles de la comunicación pública, reforzando un modelo donde el flujo de información se diseña para maximizar beneficios económicos, no para fortalecer la democracia. Al concentrar a usuarios, medios y empresas en sus ecosistemas, Meta controla no solo el discurso, sino también las interacciones económicas.

Así, el espacio público digital no es realmente público. Es privado, administrado por corporaciones que actúan como gobiernos sin haber sido elegidos democráticamente. Cuando Meta elimina la moderación, no está empoderando a los usuarios como anuncia, sino que está fortaleciendo su rol como árbitro global del discurso. La ausencia de moderación no significa mayor democracia ni igualdad de voz, porque el algoritmo sigue siendo quien decide qué contenido tiene visibilidad. Y, como ya argumenté, los algoritmos no son neutrales: favorecen a los actores con más poder, como campañas políticas masivas financiadas por corporaciones, grupos organizados de desinformación y usuarios con grandes audiencias, quienes cuentan con los recursos para inundar el espacio digital con mensajes polarizantes diseñados para manipular o dividir.

En este escenario, la desinformación14 se descontrola, porque la eliminación de barreras permite que las noticias falsas, teorías conspirativas y fraudes se propaguen sin límites. Pero esta desinformación no está repartida al azar: su distribución está organizada en función de los intereses de quienes controlan las plataformas, consolidando un modelo de organización social digital que responde a las prioridades de los grandes dueños de las tecnológicas, no a las necesidades de la ciudadanía. En lugar de empoderar, este modelo socava nuestra capacidad de discernir, fomenta la polarización y perpetúa un sistema en el que las corporaciones privadas controlan las narrativas que rigen nuestra percepción de la realidad.

Esta supuesta ausencia de moderación es una excelente noticia para las casas de apuestas online, fraudes y demás estafas que están destrozando a la juventud15 . Sin restricciones, estas prácticas prosperan en un entorno digital descontrolado, mientras las instituciones educativas de todo orden, que podrían ser parte de la solución, enfrentan un obstáculo aún mayor: la desaparición del cuestionamiento. La educación es, esencialmente, hacer preguntas. Sin embargo, estamos construyendo una sociedad que evita las preguntas para dar paso a respuestas preconcebidas diseñadas por algoritmos, que cada vez más ocupan el espacio de debate en el campo social. En lugar de promover la reflexión, las plataformas automatizan respuestas y, con ello, nos privan de una de las herramientas más humanas: el pensamiento crítico.

El principio de incertidumbre de Heisenberg16, en física, demuestra que es imposible ser un observador pasivo a ciertas escalas: conocer implica transformar. Este principio trasciende el ámbito físico y se aplica también al ámbito social. Cada vez que nos hacemos preguntas y buscamos respuestas, dejamos de ser observadores pasivos; transformamos nuestro entorno y asumimos una responsabilidad inevitable hacia lo público. Sin embargo, hoy existe toda una maquinaria de estímulos diseñada para evitar que nos cuestionemos, para mantener nuestra mirada fija en las pantallas y nuestras mentes centradas exclusivamente en nosotros mismos, como si esa desconexión con el mundo nos beneficiara y nos protegiese. 

El acto de conocer no es solo un proceso intelectual, es un acto profundamente transformador. Al cuestionarnos, no solo cambiamos nuestra percepción, sino que también asumimos responsabilidad sobre nuestro entorno. Dejamos de ver lo público como algo ajeno y nos involucramos en él, reconociendo que nuestra existencia está intrínsecamente ligada a la de los demás. Por eso, cuando evitamos las preguntas, cuando dejamos que las respuestas sean prefabricada, no solo nos volvemos menos críticos, sino también menos responsables de nuestra propia sociedad.

En un contexto donde cada vez asumimos menos responsabilidad por el espacio que habitamos, es natural que deleguemos las soluciones a nuestros dilemas en entidades de tipo autoritario. Estas entidades no solo resuelven conflictos en nuestro lugar, sino que también definen las reglas del juego, moldeando el campo social según sus intereses. Este proceso no es neutral: cualquier conflicto o discusión se interpreta como un ataque personal porque cuestiona nuestro lugar en el campo social17, una identidad frágil construida en torno a burbujas digitales que refuerzan nuestras creencias.

Si las personas crecen en un contexto donde las plataformas digitales y la tecnología resuelven conflictos de forma instantánea, pierden la oportunidad de desarrollar herramientas para manejar situaciones incómodas o frustrantes. En este entorno, proliferan nuevos roles sociales diseñados para atacar cualquier controversia que desafíe las normas predefinidas, replicando y amplificando la lógica del algoritmo. En lugar de promover el diálogo, estas dinámicas refuerzan posturas rígidas y hostiles frente a la diversidad de opiniones.

La práctica de enfrentarse a dilemas éticos o emocionales complejos es esencial para desarrollar resiliencia. Sin embargo, cuando evitamos estas experiencias, nuestra capacidad para navegar la incertidumbre se debilita, generando frustración y un sentimiento de vulnerabilidad cada vez que surgen problemas. Las redes sociales agravan este fenómeno al priorizar contenido que refuerza puntos de vista específicos, limitando la exposición a opiniones contrarias. Esta falta de contacto con la diversidad dificulta nuestra habilidad para procesar desacuerdos y manejar tensiones, perpetuando un ciclo de aislamiento y fragilidad emocional.

El impacto no es solo individual; también tiene implicaciones profundas para la salud mental. Cuando las decisiones importantes son tomadas por sistemas externos18, las personas pueden sentirse desconectadas e impotentes, lo que se asocia con síntomas de depresión19. Además, la incapacidad para lidiar con la incertidumbre incrementa la ansiedad, ya que lo desconocido es percibido como una amenaza, en lugar de una oportunidad de aprendizaje y crecimiento. Si las redes sociales gestionan los conflictos eliminándolos en lugar de fomentar el diálogo, las personas pierden oportunidades para desarrollar habilidades sociales y emocionales clave, como la empatía y la resolución de conflictos.

Cuando un hater20 publica un comentario destructivo, sabe que está generando una reacción inmediata: respuestas, likes (aunque sean negativos) y atención. Estas interacciones producen pequeños picos de dopamina, reforzando su comportamiento y perpetuando un ciclo adictivo21. Además, las plataformas digitales, diseñadas para priorizar contenido que genera interacciones, amplifican aún más la voz de los haters, otorgándoles mayor visibilidad y validación, sin importar si las interacciones son positivas o negativas. Estudios demuestran que las emociones intensas, como la ira o el miedo, generan más interacción, por lo que los algoritmos amplifican este tipo de mensajes22. A su vez la desinformación suele ser más atractiva que los datos verificados porque apela a emociones inmediatas y refuerza nuestra identidad o preconcepto del mundo. En algunos casos, los haters buscan pertenecer a un grupo o comunidad que comparte su postura. Los likes y comentarios de apoyo de otros haters actúan como una forma de validación. Atacar a otros puede darles una falsa sensación de poder, especialmente si se comparan con figuras que consideran más exitosas o privilegiadas.

Frente a esta dinámica, suele surgir el simplista argumento de que “nadie está obligado a usar las plataformas”. Sin embargo, esta afirmación ignora una realidad crucial: estas plataformas no son opcionales en la práctica; son parte integral del espacio público digital y del mercado actual. Como ya hemos discutido, estar fuera de estas plataformas significa quedar desconectado de debates sociales, oportunidades económicas y redes personales, todas ellas concentradas en el entorno digital. En otras palabras, optar por no participar no solo implica aislamiento social, sino también exclusión económica y cultural.

Y aunque este argumento fuese ignorado (podríamos imaginar a alguien «desconectándose» y yendo a una ruta a vender mermelada), existe una realidad aún más profunda: la adicción química. Las redes sociales están diseñadas para aprovechar el sistema de recompensa de nuestro cerebro, creando una dependencia dopaminérgica. Cada notificación, interacción o validación actúa como un refuerzo positivo que nos engancha, dificultando que abandonemos las plataformas incluso si reconocemos sus impactos negativos. Esta dependencia no es solo tecnológica; es neuroquímica, lo que coloca a los usuarios en una posición de vulnerabilidad frente a las dinámicas diseñadas por las grandes plataformas. El exceso de dopamina producido por la tecnología puede agotar los receptores neuronales, haciendo que las personas se sientan menos motivadas o más deprimidas cuando no reciben estímulos. La dopamina fomenta la búsqueda constante de gratificación. En lugar de enfrentarnos a situaciones estresantes (por más pequeñas que sean), recurrimos a actividades que proporcionan dopamina rápida, como navegar redes sociales, jugar videojuegos o consumir contenido superficial. Cuando enfrentamos problemas reales que requieren tiempo y esfuerzo, la frustración crece, lo que puede desencadenar ansiedad. 

En este contexto, el problema no es simplemente que algunos opten por participar o no, sino que estas plataformas han monopolizado nuestras interacciones sociales y biológicas. Nos mantienen atrapados en un entorno que no solo controla las narrativas del espacio público, sino que también explota los mecanismos más básicos de nuestro cerebro para asegurar nuestra permanencia. 

En este contexto, es urgente repensar políticas públicas que devuelvan el poder al ciudadano en su rol de usuario, y no al usuario en su rol de consumidor pasivo. El verdadero empoderamiento no se logra con la eliminación de reglas, sino con mecanismos que permitan recuperar la capacidad de decidir sobre el espacio digital. Esto implica tener herramientas de control sobre el contenido y filtros personalizables, opciones para verificar contenido y transparencia sobre cómo funcionan los algoritmos que determinan qué ven y qué no. A su vez se deben establecer mecanismos de participación en la gobernanza digital. La moderación y el diseño algorítmico no pueden ser decisiones unilaterales de empresas privadas. Es necesario incluir a los usuarios en estos procesos, estableciendo mecanismos de deliberación y rendición de cuentas.

Es clave avanzar en la educación en alfabetización digital23. No basta con ofrecer información o herramientas para saber usar la tecnología; debemos formar ciudadanía con criterio propio, capaces de distinguir contenido confiable de la desinformación y de comprender cómo funcionan las dinámicas de manipulación digital. Se trata de evitar el proceso de cristalización de la ética. Así las reglas deben ser claras y los procesos de moderación abiertos, asegurando que las decisiones sobre qué se elimina y por qué no dependan de decisiones arbitrarias o intereses comerciales.

Será imposible avanzar en estos puntos sin una regulación del poder económico y monopólico de las plataformas. Sin estas medidas, seguiremos atrapados en un modelo donde los usuarios son sujetos pasivos, moldeados por decisiones que no toman y algoritmos que no comprenden. Si queremos una sociedad verdaderamente democrática, es momento de replantear quién tiene el control en el espacio digital y cómo podemos recuperarlo.

Un espacio verdaderamente democrático no es uno sin reglas, sino uno donde las reglas están diseñadas para proteger la igualdad de voz y la integridad de la información. Si dejamos todo al caos, no estamos empoderando a los usuarios, estamos empoderando a quienes ya dominan el juego. 

En este dilema, lo primero es desatarse y salir de las vías del tranvía. 

Código del artículo: 25001002

Scroll al inicio