La red social Instagram anunció una nueva medida de seguridad orientada a la protección de menores: notificará a los padres o tutores cuando detecte que un adolescente realiza búsquedas repetidas relacionadas con suicidio o autolesión.
La iniciativa forma parte de un conjunto de herramientas de supervisión parental impulsadas por Meta, empresa matriz de la plataforma, en respuesta a la creciente preocupación global por la salud mental de los jóvenes y el impacto de los contenidos digitales.
Según lo informado, el sistema identificará patrones de búsqueda sensibles y, en caso de reiteración, enviará alertas a las cuentas vinculadas de supervisión familiar. El objetivo es permitir una intervención temprana por parte de los padres, facilitando el acompañamiento y la búsqueda de ayuda profesional si fuera necesario.
La compañía precisó que esta función se integrará dentro de las cuentas para adolescentes, que ya incluyen restricciones de contenido, límites de interacción y herramientas de control de tiempo de uso. Asimismo, aseguró que se mantendrán criterios de privacidad y seguridad en el manejo de los datos.
Expertos en salud mental han valorado la medida como un avance, aunque advierten que debe ir acompañada de educación digital y comunicación abierta en el entorno familiar. También señalan que la tecnología, por sí sola, no sustituye el rol de los adultos en la detección de señales de alerta.
Con esta decisión, Instagram se suma a otras plataformas que buscan reforzar sus políticas de protección infantil, en un contexto donde el bienestar emocional de los usuarios más jóvenes se ha convertido en una prioridad creciente en el ámbito digital.

