- Instagram enviará avisos a los padres cuando detecte búsquedas repetidas de términos sobre suicidio o autolesión en cuentas de adolescentes.
- Las notificaciones incluirán recursos de expertos para ayudar a las familias a abordar conversaciones delicadas con menores.
- El sistema funcionará a través de email, SMS, WhatsApp y avisos en la app para cuentas con supervisión parental activada.
- La medida se estrena en EE. UU., Reino Unido, Australia y Canadá y llegará a más regiones, incluida Europa, a lo largo del año.
Instagram ha decidido dar un nuevo paso en sus controles parentales para proteger a los menores. La red social de Meta comenzará a avisar a los padres cuando detecte que un adolescente intenta buscar una y otra vez términos relacionados con el suicidio o la autolesión en un corto intervalo de tiempo.
Esta medida se suma al bloqueo de resultados que la plataforma ya aplica a este tipo de búsquedas en cuentas de jóvenes. Ahora, además de impedir el acceso directo a ese contenido, Instagram pretende que los adultos a cargo dispongan de información y herramientas para reaccionar a tiempo si su hijo pudiera estar atravesando un momento especialmente delicado.
Cómo funcionarán las nuevas alertas para padres en Instagram
Hasta ahora, cuando un menor buscaba palabras ligadas al suicidio o a hacerse daño, Instagram no mostraba resultados y redirigía a recursos de apoyo profesional, como líneas de ayuda o páginas con información sobre salud mental. La novedad es que, si el sistema detecta que esa búsqueda se repite de forma insistente, activará un aviso específico a los tutores legales.
La compañía explica que estas notificaciones saltarán cuando el algoritmo identifique frases que promuevan la autolesión o el suicidio o que sugieran que el adolescente podría estar pensando en dañarse. No se trata de una consulta aislada, sino de patrones de búsqueda repetidos en un período breve de tiempo, lo que para la empresa puede ser una señal de alarma.
Para que el aviso llegue, los padres deben tener configurada la herramienta de Supervisión en la cuenta del menor. Si esa supervisión está activa, Instagram utilizará los datos de contacto disponibles para hacer llegar la alerta por diferentes canales.
La empresa utilizará el correo electrónico, los mensajes SMS, WhatsApp y, cuando corresponda, notificaciones dentro de la propia aplicación. El objetivo es aumentar las posibilidades de que el adulto reciba y lea el mensaje, sin depender únicamente de un único medio.
Al pulsar sobre la notificación, el progenitor o tutor verá un mensaje a pantalla completa en el que se explica que el adolescente a su cargo ha intentado buscar repetidamente términos sobre suicidio o autolesión. Además, se incluirán enlaces y materiales elaborados con expertos para orientar a las familias sobre cómo iniciar una conversación sensible con el menor y qué pasos pueden seguir para acompañarle.
Un despliegue gradual y el foco puesto en la seguridad de los menores
Instagram comenzará a activar estas alertas parentales en Estados Unidos, Reino Unido, Australia y Canadá a lo largo de la próxima semana. La compañía avanza que la función se irá ampliando a otras zonas del mundo, entre ellas Europa, durante el transcurso del año, aunque sin dar aún fechas concretas país por país.
Meta subraya que, aunque el contenido sobre suicidio y autolesión ya se bloquea en las búsquedas de adolescentes, estas nuevas notificaciones buscan que los padres estén al tanto de intentos reiterados de acceder a ese tipo de información. La compañía admite que recibir un mensaje de este tipo puede ser muy duro para cualquier familia, pero insiste en que las alertas están diseñadas para ofrecer recursos útiles y rutas de ayuda, no solo para informar del problema.
La medida se enmarca en una estrategia más amplia de la empresa para reforzar la seguridad infantil en sus plataformas después de años de críticas sobre el impacto de las redes sociales en la salud mental de los jóvenes. En Europa, donde las autoridades y los reguladores han endurecido el escrutinio sobre las grandes tecnológicas, este tipo de herramientas se perciben como un movimiento destinado tanto a proteger a los menores como a responder a la presión política y social.
En paralelo, la compañía también ha anunciado que, de forma parecida a estas notificaciones relacionadas con las búsquedas, empezará a implementar avisos a padres por ciertas interacciones con herramientas de inteligencia artificial de Meta. Si un adolescente intenta mantener conversaciones sobre suicidio o autolesión con el chatbot de la empresa, la plataforma planea advertir igualmente a los adultos responsables.
Contexto: críticas, demandas y presión política sobre Meta
La decisión de reforzar los avisos parentales llega en un momento delicado para Meta, matriz de Instagram, que se enfrenta a demandas y audiencias públicas por el supuesto efecto dañino de sus productos en menores. La compañía ha sido acusada en varios procesos judiciales de no haber actuado con suficiente rapidez para limitar el acceso de niños y adolescentes a contenidos perjudiciales.
En una de estas comparecencias, celebrada en el Senado de Estados Unidos, el director ejecutivo Mark Zuckerberg tuvo que escuchar los testimonios de familias que responsabilizan a las redes sociales del deterioro emocional de sus hijos. Durante la audiencia, el máximo responsable de Meta se dirigió a ellas directamente para pedir disculpas y reconocer que «nadie debería pasar por lo que habéis vivido», en referencia a los casos de autolesión y otros daños relacionados con el uso intensivo de las plataformas.
En otro procedimiento judicial, los abogados de los demandantes interrogaron a Zuckerberg sobre quejas internas de empleados que alertaban de que no se estaban tomando suficientes medidas para evitar que menores de 13 años utilizaran los servicios de la compañía, pese a que la edad mínima oficial está por encima de esa cifra.
El directivo admitió que Meta ha ido mejorando en la identificación de usuarios demasiado jóvenes, aunque también reconoció que hubiera deseado llegar a esas mejoras antes. Esta clase de declaraciones, unidas a los documentos internos difundidos en los últimos años, han contribuido a aumentar la presión pública y política sobre la firma.
En este contexto de escrutinio, el anuncio de que Instagram comenzará a informar a padres y madres de búsquedas preocupantes por parte de sus hijos adolescentes se interpreta como un intento de demostrar que la compañía está introduciendo cambios concretos en la forma de gestionar los riesgos para la salud mental juvenil.
Qué implican estas medidas para las familias en España y Europa
Aunque el despliegue inicial arranca fuera de la Unión Europea, Meta ya ha adelantado que la función se extenderá a otros mercados a finales de este año. En el caso de España y del resto de países europeos, la llegada de estas notificaciones deberá encajar, además, con la normativa comunitaria en materia de protección de datos, menores y servicios digitales.
La Unión Europea ha endurecido sus requisitos con la entrada en vigor de normativas como la Ley de Servicios Digitales (DSA), que exige a las grandes plataformas una evaluación más estricta de los riesgos sistémicos, incluidas las posibles consecuencias para la salud mental de niños y adolescentes. Cualquier sistema de alertas parentales deberá respetar estas reglas, por lo que es previsible que Meta adapte su despliegue y sus textos informativos para cumplir los estándares europeos.
Para las familias españolas, la introducción de estas notificaciones puede suponer una herramienta adicional de vigilancia y acompañamiento en el uso de Instagram por parte de los menores. No sustituye, en todo caso, al diálogo directo ni a la supervisión cotidiana, pero puede funcionar como una señal temprana de que algo no va bien cuando el adolescente trata de informarse de forma reiterada sobre temas tan delicados.
Colectivos profesionales y organizaciones especializadas en salud mental juvenil suelen insistir en que, ante cualquier sospecha de riesgo de autolesión, es fundamental contactar con servicios sanitarios y de emergencia o recurrir a líneas de ayuda y apoyo psicológico. Las alertas de Instagram, tal y como las presenta la compañía, se plantean como un complemento que dirige a las familias precisamente hacia este tipo de recursos.
En la práctica, el éxito de la medida dependerá en buena parte de que los padres activen la Supervisión de la cuenta del menor, presten atención a las comunicaciones de la plataforma y sepan cómo interpretar y manejar el contenido de las notificaciones, algo para lo que los materiales de expertos prometidos por Meta pueden resultar especialmente útiles.
A medida que estas novedades vayan llegando a Europa, se espera que tanto reguladores como asociaciones de padres, educadores y especialistas en salud mental sigan de cerca su funcionamiento, para comprobar si realmente contribuyen a detectar situaciones de riesgo y ofrecer apoyo temprano a los adolescentes que lo necesitan.
Con esta nueva función de avisos a padres sobre búsquedas repetidas relacionadas con el suicidio o la autolesión, y con planes para extender el sistema también a las interacciones con su inteligencia artificial, Instagram trata de mostrar que está dispuesto a asumir un papel más activo en la protección de los menores, combinando el bloqueo de contenidos dañinos con la implicación directa de las familias y de los recursos profesionales de ayuda.
Editor profesional de Tecnología y Software
