«Tenemos la posibilidad de conectar a las personas que están pasando por un mal momento con aquellos que pueden contenerlo», explican desde la red social.

«Cuando una persona expresa pensamientos suicidas, es importante brindarle ayuda tan pronto sea posible». Así explica Guy Rosen, vicepresidente de producción de Facebook, por qué decidieron buscar señales de alerta en las publicaciones de los usuarios.

El software buscará pistas en publicaciones o incluso en videos que se transmitan en Facebook Live, luego enviará reportes a supervisores humanos y agilizará las alertas para asistentes humanos capacitados para ayudar.

Este enfoque usa modelos tecnológicos de reconocimiento para ayudar a identificar post y transmisiones en vivo que probablemente expresen pensamientos de suicido.

Las señales que son especialmente observadas incluyen textos o comentarios a usuarios, tales como aquellos en los que alguien les pregunta si están preocupados o atormentados.

Facebook ya cuenta con herramientas para que la gente reporte preocupación sobre amigos que estén considerando provocarse lesiones, pero el software puede acelerar el proceso e incluso detectar señales que la gente puede pasar por alto.

Si alguien publica algo en Facebook que te genera preocupación por su bienestar, puedes contactarlos o reportar su publicación. Contamos con equipos que trabajan 24 horas por día, siete días por semana para analizar los reportes y priorizar aquellos de mayor seriedad.

«Han habido eventos terriblemente trágicos, como suicidios, algunos en transmisiones en vivo, que quizá pudieron prevenirse si alguien hubiera sabido que pasaba y lo hubiera reportado rápido», dijo Mark Zuckerberg, director Ejecutivo de Facebook, a principios de este año en un post en la red social.

Facebook está implementando herramientas de inteligencia artificial fuera de Estados Unidos y planea tenerlas eventualmente disponibles en todos lados excepto en la Unión Europea, donde el uso de datos personales está restringido por las regulaciones de privacidad.

La red social colabora desde hace una década con organizaciones de salud mental sobre formas de detectar señales de usuarios que puedan ser suicidas o necesiten ayuda.

2018-02-08T23:53:37+00:00