Las plataformas Meta, TikTok y Snap se someterán por primera vez a una evaluación externa y voluntaria de sus mecanismos de protección de la salud mental de adolescentes en línea, en el marco de la nueva iniciativa Safe Online Standards (SOS), impulsada por la Coalición de Salud Mental (Mental Health Coalition). El programa establecerá un sistema de estándares y calificaciones públicas que medirá cómo estas compañías diseñan sus servicios, moderan contenidos sensibles y protegen a usuarios de entre 13 y 19 años frente a riesgos como la autolesión, el suicidio o la exposición constante a contenidos dañinos.
La iniciativa SOS constituye el primer sistema estructurado de referencia pensado específicamente para redes sociales, videojuegos y otras plataformas digitales, con foco en su impacto psicológico sobre los menores. Para participar, las empresas deben entregar documentación detallada sobre políticas de seguridad, herramientas de control, diseño de funciones (como límites al desplazamiento infinito o recordatorios de descanso) y recursos de apoyo emocional disponibles. Esa información será analizada por un panel independiente de expertos internacionales, que emitirá una calificación final basada en un esquema de colores de fácil comprensión para usuarios, familias y anunciantes.
Además de Meta, TikTok y Snap, el primer grupo de compañías que se ha adherido al programa incluye a plataformas como Discord, YouTube, Pinterest, Roblox y Twitch, aunque las tres primeras serán las iniciales en completar el proceso de evaluación. Según explicó Dan Reidenberg, fundador y director de SOS en la Coalición de Salud Mental, los sistemas de estándares y etiquetado son habituales en muchos productos de consumo, pero aún casi inexistentes en el ámbito de la tecnología en línea, pese a su influencia diaria en la vida de millones de jóvenes.
Reidenberg sostuvo que tanto los usuarios como los anunciantes buscan identificar “espacios más seguros” para la actividad digital de adolescentes y adultos jóvenes, y presentó el programa SOS como un marco compartido de responsabilidad que pretende elevar el nivel de las prácticas de seguridad en todo el sector. Las plataformas que obtengan mejores puntuaciones podrán exhibir un distintivo visual que las identifique como entornos más comprometidos con la protección de la salud mental, mientras que las que no alcancen los estándares quedarán claramente señaladas en los informes públicos.
Desde Meta, la vicepresidenta y directora global de seguridad, Antigone Davis, señaló que la compañía lleva más de una década desarrollando herramientas y políticas orientadas a la protección de los jóvenes en Facebook e Instagram, y afirmó que el nuevo estándar ofrece al público una vía “significativa” para evaluar esas medidas y exigir mayor rendición de cuentas a la industria. La Coalición de Salud Mental subrayó que los Estándares de Seguridad en Internet no son una solución definitiva, sino el punto de partida de una iniciativa continua que busca promover entornos digitales que favorezcan mejor la salud mental y el bienestar de los usuarios.
