Los padres de un adolescente del área de Seattle que supuestamente fue presionado para suicidarse por un miembro de la red extremista en línea “764” presentaron una demanda por muerte por negligencia contra Discord, alegando que el gigante de las redes sociales “causó” el suicidio de su hijo y “alentó una de las sectas de abuso infantil más depravadas y peligrosas de la historia moderna”.
Según la demanda, Discord “proporcionó a 764 víctimas un número ilimitado de víctimas”, incluido Jay Taylor, de 13 años, quien en enero de 2022 se suicidó fuera de Tienda de comestibles local en Gig Harbor, Washington.
“Lo que pasó es casi bíblico en su definición de mal”, dijo Colby, el padre de Jay Taylor, a ABC News en una entrevista exclusiva en noviembre.
Como informó anteriormente ABC News, 764 miembros encuentran víctimas vulnerables en plataformas populares, obtienen de ellas información privada e imágenes sexuales íntimas y luego utilizan este material sensible para chantajear a las víctimas para que se lastimen a sí mismas, a otros o tomen otras acciones violentas.
Los miembros de 764 suelen organizar chats en vivo en línea para que otros puedan seguir actos de autolesión y violencia en tiempo real. Cuanto más puedan presionar a sus víctimas, más estatura y respeto recibirán dentro de 764, dicen las autoridades.
Las cenizas de Jay Taylor, de 13 años, reposan en un columbario en Gig Harbor, Washington
ABC Noticias
“Discord (proporcionó) acceso 764 a su plataforma, no tomó medidas razonables para prevenir o interrumpir dicha explotación y mantuvo el mismo diseño de producto y configuración predeterminada que permitieron el abuso”, afirma la nueva demanda de 31 páginas.
Colby Taylor le dijo anteriormente a ABC News que él y su esposa, Leslie, se estaban preparando para presentar una demanda contra Discord, con la esperanza de que la acción legal presionaría a la plataforma a hacer más para detener a los depredadores en línea. La demanda fue presentada el jueves en un tribunal del condado de Pierce, Washington, solicitando una cantidad no especificada por daños y perjuicios.
Como los Taylor describieron a ABC News, Jay Taylor era una víctima vulnerable. Era “divertido” y “dulce” y tenía talento para el dibujo y las manualidades, recordó su madre. Pero a principios de 2021, la pandemia de COVID-19 había dejado a Jay sintiéndose aislado y solo. Y aunque le asignaron una niña al nacer, estaba en medio de una transición de género, lo que exacerbó sus sentimientos de soledad, dijeron sus padres.

Leslie y Colby Taylor, padres de Jay Taylor, hablan con el presentador de ABC News, Juju Chang, sobre su difunto hijo y los peligros del 764.
ABC Noticias
En enero de 2022, Jay publicó un mensaje en Discord que decía: “Estoy buscando amigos, preferiblemente LGBTQ para compañeros de crochet”, recordó el padre de Jay.
Alguien respondió a la publicación de Jay, lo que lo llevó a un chat en vivo con otras personas. Después de aproximadamente una hora, otros participantes en el chat grupal comenzaron a decirle a Jay que debería suicidarse, dijeron los padres de Jay.
Un usuario de Discord que se hacía llamar “Tigre Blanco” en línea lideró la carga y ordenó a otros que presionaran y manipularan a Jay, según los padres de Jay.
“Al final, la presión llegó a Jay”, dice su demanda.
Posteriormente, el FBI identificó al “Tigre Blanco” como un joven estudiante de medicina alemán-iraní de Hamburgo, Alemania. Actualmente se encuentra siendo juzgado en Hamburgo, acusado del asesinato de Jay Taylor y de más de 200 cargos más de presunto abuso de decenas de víctimas. Según la demanda de los Taylor, Discord plantea “un riesgo previsible de daño a los usuarios jóvenes” y “no es razonablemente seguro como se esperaba”.
“Desde el principio, Discord diseñó una plataforma estructuralmente cargada con características obvias que amplificaban los riesgos, y cuando esos riesgos se materializaron a través de 764, Discord la alojó, la hizo crecer y, mientras tanto, se comercializó entre más usuarios infantiles, asegurando su explotación”, dice la demanda.
La demanda alega además que Discord “se niega a invertir en medidas de seguridad de sentido común” y “deliberadamente carece de personal y recursos para su equipo de seguridad y respuesta, empleando una pequeña fracción de lo necesario para controlar eficazmente el comportamiento abusivo”.
764 fue iniciado en Discord por un adolescente de Stephenville, Texas, quien lo nombró según los primeros tres dígitos de su código postal local. Nacido en medio de la pandemia de COVID-19, cuando los adolescentes estaban atrapados en casa y acudían en masa a espacios en línea, 764 fue una rama aún más cruel de otros grupos en línea que explotaban a niños mediante chantaje y autolesión, dijeron las autoridades.
Desde entonces, 764 se ha extendido por todo el mundo, convirtiéndose más en una ideología que en un grupo singular, dicen los expertos. Y otros grupos, inspirados en 764, se formaron con nombres diferentes pero tácticas y objetivos idénticos. En noviembre, el FBI estaba investigando a más de 350 personas en Estados Unidos sospechosas de tener vínculos con 764 o redes similares.
Desde entonces, ese número no ha hecho más que aumentar, dicen los expertos. El martes, el presidente del Comité de Supervisión y Reforma Gubernamental de la Cámara de Representantes, James Comer, republicano de Kentucky, envió una carta al director del FBI, Kash Patel, exigiendo que los funcionarios del FBI informen al personal del comité sobre los esfuerzos de la agencia para “rastrear y detener” a 764 miembros.

Una fotografía sin fecha encontrada por la policía en Vernon, Connecticut, en los dispositivos de una joven de 17 años asociada con la red en línea 764 muestra una muñeca Barbie marcada “764”.
Departamento de policía de Vernon
Citando informes de ABC News, Comer escribió que las “tácticas inquietantes atribuidas a esta red” justifican “un riguroso seguimiento y evaluación para determinar si las contramedidas federales existentes son efectivas y están adecuadamente financiadas para combatir a estos esquivos perpetradores en línea”.
En septiembre, Patel dijo a los legisladores en una audiencia pública en el Senado que luchar contra 764 era ahora “una prioridad” para el FBI. Llamó a los crímenes relacionados con 764 una nueva forma de “terrorismo moderno en Estados Unidos”.
El viernes, un portavoz de Discord dijo que la compañía estaba revisando la nueva demanda presentada por Colby y Leslie Taylor.
Después de que ABC News entrevistó a los Taylor hace varios meses, un representante de Discord le dijo a ABC News en un comunicado que la plataforma estaba “comprometida con la seguridad de los usuarios” y que “las horribles acciones de grupos como este no tienen cabida en Discord ni en ningún otro lugar de la sociedad”.
Según un portavoz de Discord, la plataforma está invirtiendo “fuertemente” en equipos especializados y herramientas de inteligencia artificial recientemente desarrolladas que pueden “perturbar estas redes, eliminar contenido violento y tomar medidas contra los malos actores en nuestra plataforma”.
Discord también dijo que comparte inteligencia con otras plataformas, lo que puede ayudar a identificar a los malos actores antes de que Discord los detecte, y Discord dijo que coopera con las autoridades, brindándoles consejos y otra información de manera proactiva.
Su consejo dio lugar a numerosos arrestos, incluido el de Bradley Cadenhead, el adolescente de Texas que inició el 764. y actualmente cumple una condena de 80 años de prisión tras declararse culpable de cargos relacionados con pornografía infantil. Y Discord anunció recientemente nuevas herramientas destinadas a brindar a los padres más control y más información sobre las cuentas de sus hijos.












