Todos ya conocemos el caso Cambridge Analityca en el que se vio envuelto Facebook este año. Donde se lo culpo de haber tenido algo que ver con las ultimas elecciones Presidenciales en Estados Unidos. Y a esto se le suma muchos mas casos relacionados a supuestas acciones que llevaron diferentes compañías a lo largo de todo el mundo, para manipular información y opinión en general.

Dada las circunstancias Facebook ha tenido que tomar medidas y una de ellas es la que les exponemos en las siguientes líneas. Las mismas fueron publicadas de forma oficial por el blog de Facebook Latinoamerica; quienes detallan toda la información de un centro de prevención para la “NO” interferencia electoral.

Ademas de estas acciones han tomado muchas para tratar de prevenir las clásicas noticias falsas que tan fácil son de generar.

Con ustedes la nota completa de Facebook, y como siempre pueden realizar sus comentarios pertinentes.

Fuente Facebook Latam

Por Samidh Chakrabarti, Director de Producto y Participación Cívica

En los últimos dos años, hemos progresado en la prevención de la interferencia electoral en Facebook. Pero a medida que nuestros equipos se volvieron más inteligentes, también lo hicieron los adversarios que buscan abusar de nuestros servicios. Es por eso que, en septiembre, previo a las elecciones en Brasil y en Estados Unidos, pusimos en funcionamiento nuestro War Room, en Menlo Park, California. Buscamos reunir a los especialistas en temas electorales de toda la compañía en un solo lugar, para que puedan abordar los potenciales problemas que identifica nuestra tecnología en tiempo real y dar una respuesta rápida.

181019-5

En el War Room trabajan más de dos docenas de expertos, incluyendo ingenieros, analistas de datos, equipos de inteligencia cibernética, investigadores y abogados, entre otros. Ese grupo representa y es apuntalado por las más de 20,000 personas que trabajan en el área de seguridad de Facebook. Estando todos en el mismo lugar, los equipos pueden tomar decisiones más rápidamente y reaccionar ante cualquier amenaza identificada por nuestros sistemas para mitigar la propagación de contenido potencialmente dañino. Nuestros tableros de control analizan en tiempo real temas sensibles a las elecciones, como los mensajes que pretendan evitar que las personas voten, incrementos de spam, posibles interferencias extranjeras o contenido que viole nuestras políticas. El War Room también supervisa la cobertura de noticias y la actividad relacionada con las elecciones en otras redes sociales y medios tradicionales. Esos trabajos nos permiten tener una visión general y ayudan a rastrear qué tipo de contenido puede volverse viral. Para prepararse, nuestro equipo también realizó una extensa planificación de escenarios y posibles amenazas, desde el acoso hasta la supresión de votantes, y desarrolló sistemas y procedimientos con anticipación para responder de manera efectiva.

Esa planificación ayudó mucho durante la primera ronda de las elecciones presidenciales de Brasil. Por ejemplo, nuestra tecnología detectó un post falso que afirmaba que el Día de las Elecciones en Brasil había pasado del 7 al 8 de octubre debido a protestas. El mensaje, que era incorrecto, comenzó a volverse viral. Rápidamente lo detectamos, determinamos que violaba nuestras políticas y lo eliminamos en menos de una hora. Y en las siguientes dos horas hicimos lo propio con otras versiones de la misma noticia falsa.

Otro caso ocurrió después de los resultados de la votación, cuando nuestros sistemas detectaron un aumento en el discurso de odio. La investigación identificó contenidos que incitaban al odio y que parecían estar diseñados para estimular la violencia contra las personas del nordeste de Brasil. Eliminamos esas publicaciones dos horas después de que nuestra tecnología enviara la primer alerta a la War Room.

El trabajo que estamos haciendo en el War Room se basa en casi dos años de trabajo arduo y en significativas inversiones, tanto en personas como en tecnología, para mejorar la seguridad en Facebook, incluso durante las elecciones. Nuestra tecnología de aprendizaje automático e inteligencia artificial ahora es capaz de bloquear o deshabilitar cuentas falsas de manera más efectiva, atacando la principal causa de varios problemas. Aumentamos la transparencia y la responsabilidad en nuestra publicidad y seguimos avanzando en la lucha contra las noticias falsas y la desinformación.
Dicho esto, la seguridad sigue siendo una carrera contra nuestros adversarios y anticiparnos a sus acciones demandará una mejora continua. Estamos comprometidos a enfrentar ese desafío.

Anuncios