(EFE).- Instagram anunció que «la semana que viene» empezará a notificar a los padres si su hijo «intenta buscar repetidamente términos relacionados con el suicidio o la autolesión» en su red social, según anunció este jueves su compañía matriz, Meta.
Esta medida se activará para los padres de EE.UU., Reino Unido, Australia y Canadá que usan las herramientas de supervisión parental de la red social, y estará disponible en otras regiones «a finales de este año».
«Estas alertas están diseñadas para brindar a los padres la información necesaria para apoyar a sus hijos adolescentes e incluyen recursos especializados para ayudarlos a abordar estas conversaciones delicadas», señala en un comunicado la compañía, que está siendo investigada en múltiples juicios por presuntamente fomentar efectos perjudiciales en la salud mental de los menores.
LAS BÚSQUEDAS
Las búsquedas que activarán la alerta incluyen frases que sugieran que un adolescente quiere autolesionarse y términos como «suicidio» o «autolesión».
Dichos avisos se enviarán a los padres por correo electrónico, SMS o WhatsApp, según la información de contacto disponible, así como mediante una notificación en la aplicación.
«Al hacer clic en la notificación, se abrirá un mensaje a pantalla completa explicando que su hijo adolescente ha intentado buscar repetidamente en Instagram términos relacionados con el suicidio o la autolesión en un corto período de tiempo. Los padres también tendrán la opción de consultar recursos de expertos diseñados para ayudarles a abordar conversaciones potencialmente delicadas con su hijo adolescente», anota Meta.

La tecnológica subraya que tiene «políticas estrictas contra el contenido que promueve o glorifica el suicidio o la autolesión», pero que permite «que las personas compartan contenido sobre sus propias dificultades con estos problemas», contenido que se oculta «a los adolescentes, incluso si lo comparte alguien a quien siguen».
«Sabemos que los adolescentes recurren cada vez más a la inteligencia artificial (IA) en busca de apoyo. Si bien nuestra IA ya está entrenada para responder de forma segura a los adolescentes y proporcionar recursos sobre estos temas según corresponda, ahora estamos creando alertas parentales similares para ciertas experiencias de IA», adelanta Meta en su comunicado.
Estas alertarán a los padres si un adolescente intenta entablar ciertos tipos de conversaciones relacionadas con el suicidio o la autolesión con la IA.
Según la empresa, este es un trabajo importante y compartirán más información en los «próximos meses».
PRESIÓN JUDICIAL CONTRA META
El lanzamiento de las nuevas funciones de supervisión parental de Meta coincide con un aumento de la presión judicial contra la compañía, acusada de diseñar algoritmos en Instagram que perjudican la salud mental de los menores.
El consejero delegado de Meta y creador de Facebook, Mark Zuckerberg, compareció la semana pasada ante el Tribunal Superior de Los Ángeles en el marco de una demanda interpuesta por una usuaria que alega haber desarrollado adicción a sus plataformas durante su adolescencia.
Durante su testimonio, Zuckerberg reiteró la postura de la tecnológica: la responsabilidad de verificar la edad de los usuarios debe recaer en los propietarios de los sistemas operativos y tiendas de aplicaciones, como Apple y Google, y no en los desarrolladores de las aplicaciones.
EFE
