Instagram asegura que la plataforma no se toma a la ligeralos problemas vinculados con la salud mental, el suicidio y las autolesiones,por ello, ha empezado a implementar en la Unión Europea la tecnología que yautiliza en otros lugares del mundo para detectar contenidos autolesivos.
La plataforma busca y elimina de forma proactiva contenidosque traten sobre el suicido o las autolesiones. Al detectarlos, los envía a ungrupo de revisores, quienes deciden los pasos a seguir a continuación: eliminardichos contenidos, contactar con asociaciones de ayuda o, en los casos másextremos, avisar a los servicios de emergencias.
Entre abril y junio, la compañía pudo actuar sobre el 90 porciento de los contenidos detectados por esta tecnología "antes de quealguien lo denunciara", aunque la "meta" de Instagram esalcanzar un porcentaje lo más próximo al 100 por ciento, como informan desdeInstagram en un comunicado.
Esta tecnología llega ahora la Unión Europea, donde actuarátanto en Instagram como en Facebook, y permitirá reducir la visibilidad dedichos contenidos en apartados como Explora o incluso eliminarlos si realmenteviolan las políticas de las dos plataformas.
El siguiente paso es poder enviar los contenidos detectadosa revisores humanos para que puedan ayudar a las personas. "No contar conesta pieza en la Unión Europea hace que sea más difícil conectar a las personascon organizaciones locales y los servicios de emergencia", explica elresponsable de la plataforma, Adam Mosseri.
Actualmente, explica el directivo, están hablando conreguladores y gobiernos sobre "la mejor forma de traer esta tecnología ala Unión Europea", atendiendo a las consideraciones de privacidad.