¿Un espacio de libertad o una trampa digital?
Las redes sociales llegaron con la promesa de conectar, visibilizar y dar voz a quienes nunca antes la habían tenido. Para muchas personas LGTBIQ+, plataformas como Instagram, TikTok o X (antes Twitter) han sido una ventana al mundo. Un refugio para expresarse, para encontrar comunidad, para decir “aquí estoy”.
Pero junto con los likes y los arcoíris vinieron los comentarios de odio, los mensajes anónimos, los reportes masivos y las sombras del algoritmo. ¿Hasta qué punto estas redes siguen siendo seguras para el colectivo?
De lo verbal a lo viral: el odio también se adapta
Lo que antes era un insulto en el pasillo del instituto, ahora se multiplica en hilos, memes y cuentas falsas. El odio ha aprendido a hablar el lenguaje de Internet. Y la LGTBIQ+fobia no es la excepción.
En redes, el ataque puede venir en forma de burla disfrazada de humor, de acoso organizado, de comentarios transfóbicos o de negación de identidades. Muchas veces, quienes lo ejercen ni siquiera son conscientes del daño que provocan. O peor aún: lo hacen sabiendo que no habrá consecuencias reales.
Porque lo cierto es que los sistemas de moderación fallan. Y mientras un pezón o una palabra fuera de contexto pueden bloquearte una cuenta, los discursos de odio campan a sus anchas.
El problema del algoritmo
Y aquí entra en juego una palabra clave: algoritmo. Esa criatura invisible que decide qué vemos, a quién seguimos, qué se viraliza y qué se entierra.
En teoría, el algoritmo premia el contenido que genera interacción. En la práctica, el contenido LGTBIQ+ muchas veces es penalizado sin explicación.
Creadorxs trans que ven cómo sus vídeos desaparecen misteriosamente. Activistas queer cuyos posts son etiquetados como “contenido sensible”. Historias de amor queer censuradas mientras se permite la difusión de contenidos homófobos o misóginos. ¿Qué está pasando?
Los algoritmos, como todo sistema, no son neutrales. Se nutren de los sesgos humanos. Y si los datos de entrenamiento vienen de una sociedad desigual, el resultado también lo será.
¿Quién modera a lxs moderadores?
La moderación de contenido es un universo oscuro. Se habla de sistemas automáticos, de revisiones humanas, de políticas internas. Pero la realidad es que nadie tiene del todo claro cómo se decide qué se borra y qué no.
Además, muchas redes no tienen personal suficiente (ni formado adecuadamente) para gestionar denuncias de contenido LGTBIQ+fóbico desde una perspectiva interseccional. ¿Qué ocurre cuando un insulto tiene matices culturales? ¿O cuando una palabra resignificada dentro del colectivo es malinterpretada por un sistema automático?
La falta de transparencia de las plataformas no ayuda. Y mientras tanto, quienes sufren violencia online deben navegar entre formularios, respuestas automáticas y puertas cerradas.
Consecuencias reales para cuerpos digitales
Lo digital no es solo digital. Las violencias en redes tienen consecuencias concretas y graves en la vida real.
Ansiedad, miedo, autoexclusión, abandono de espacios públicos, e incluso intentos de suicidio. Esto no es exageración: es el día a día de muchas personas LGTBIQ+ que intentan simplemente existir en Internet.
Algunxs optan por crear cuentas secundarias. O por dejar de mostrarse con su pareja. O por evitar ciertos temas. Lo que se supone que era un espacio de libertad, se convierte en un lugar de autocensura.
Y eso, en un mundo donde gran parte del activismo y de la visibilidad pasa por las redes, es una forma silenciosa de exclusión.
¿Qué se está haciendo? ¿Y qué falta por hacer?
Hay iniciativas importantes. Organizaciones como It Gets Better, GLSEN o FELGTBI+ trabajan activamente contra el ciberacoso. Algunas plataformas han incorporado herramientas para filtrar comentarios ofensivos o bloquear cuentas tóxicas.
Pero no es suficiente. Hace falta más que parches. Aquí van algunas demandas clave que urgen:
- Transparencia algorítmica: saber cómo se decide qué contenido se oculta o se promociona.
- Moderación con enfoque LGTBIQ+: equipos diversos y con formación específica.
- Sanciones efectivas a cuentas que promuevan odio sistemático.
- Protección activa a creadores del colectivo, no solo en junio.
- Espacios de apelación humanos y accesibles, no solo respuestas automáticas.
¿Y si el problema no son solo las redes?
También es justo preguntarse si estamos esperando demasiado de plataformas que, en el fondo, son empresas privadas con ánimo de lucro. Su prioridad no es la justicia social, sino la retención de usuaries.
¿Podemos exigir ética a quien vive de la atención constante, incluso si es tóxica?
Algunas voces critican que confiar la visibilidad del colectivo a estos entornos digitales nos vuelve vulnerables. ¿Qué pasa si mañana se decide censurar toda mención a lo queer por presiones externas o intereses económicos?
¿Estamos preparades para sostener nuestras comunidades fuera del like y el retweet?
Un espacio a recuperar, no a abandonar
No todo es oscuro. Las redes también han sido espacio de amor, arte, resistencia y memoria. Gracias a ellas nos hemos encontrado, hemos llorado juntes, hemos aprendido y hemos gritado con orgullo.
Lo que necesitamos no es irnos, sino transformar esos espacios desde dentro, exigir cambios, cuidar(nos) más y ocupar cada rincón con nuestras voces.
Porque cada historia compartida, cada meme que nos representa, cada hilo de apoyo, cada vídeo de una persona trans bailando sin miedo… es una victoria.
Y aunque el algoritmo no siempre nos entienda, nosotres sí.