«El Centro de Investigación Federal de San Petersburgo
de la Academia Rusa de Ciencias» (CSP ARC)

Científicos del CSP ARC han entrenado a la inteligencia artificial en la identificación de los grupos de bots maliciosos en las redes sociales mediante el análisis de los datos públicos sobre ellos, independientemente del idioma en el que escriban las publicaciones y los comentarios. Este enfoque puede ser aplicado por las empresas que utilizan las redes sociales con fines comerciales para detectar y contrarrestar los ataques informativos. Los resultados del investigación se publican en la revista internacional JoWUA (http://jowua.com/vol12no2.php).

Los bots son una herramienta importante para el funcionamiento de las redes sociales. Por ejemplo, participan en la labor de los chats de asistencia o de distribución de publicidad, en los que son capaces de sustituir a todo un equipo de personas reales, distribuyendo automáticamente la información. Al mismo tiempo, los bots también se utilizan para actividades poco éticas, como las valoraciones falsas, escribir falsas reseñas positivas sobre productos y difundir información errónea. Al mismo tiempo, algunos tipos de bots pueden copiar con bastante éxito el comportamiento de personas reales, por lo que es extremadamente difícil reconocerlos.

"El problema es que hay un gran número de redes sociales en todo el mundo; son diferentes entre sí y contienen información en diferentes idiomas. Sin embargo, hemos desarrollado un prototipo de sistema para supervisar la actividad grupal de los bots basado en el análisis de datos generales de entrada comunes sobre los propios bots, independientemente del lenguaje de las comunicaciones y de la estructura de las redes sociales. Tales datos están presentes en cualquier red social, según el principio de su funcionamiento", afirma el investigador principal l laboratorio de problemas de seguridad informática del CSP ARC Andrey Chechulin.

Al analizar los grupos de bots, los desarrolladores utilizaron información pública sobre las relaciones sociales implícitas entre las cuentas. La información sobre las relaciones sociales son los datos de entrada para la inteligencia artificial. Los científicos estudian los bots, su actividad en las redes sociales y la forma en que interactúan entre sí y con otros usuarios. Los datos obtenidos permiten entender con alta probabilidad qué cuentas pertenecen a personas y cuáles son los bots.

"Para entrenar la red neuronal, creamos grupos especiales en las redes sociales, en los que se introdujeron bots de diferente calidad - tanto los simples como los que pueden disfrazarse bien de usuarios reales. Una vez finalizado el análisis, evaluamos la eficacia de nuestros métodos para identificar correctamente los bots y hacer frente a su enmascaramiento. Los experimentos han demostrado que nuestros enfoques pueden detectar incluso los bots enmascarados", cree Andrey Chechulin.

Según Maxim Kolomeets, participante en el proyecto e investigador junior del CSP ARC, la eficacia del sistema se evalúa analizando varios grupos de bots y grupos de control de usuarios. Estos grupos incluyen bots creados y gestionados automáticamente, así como los creados y controlados por usuarios reales. Otro grupo de bots se creó a partir de las cuentas hackeadas y abandonadas, entre cuyos usuarios realizan acciones por dinero y, por supuesto, los usuarios habituales de las redes sociales.

"Es posible engañar al sistema creando una cuenta verdaderamente real. Sin embargo, con el tiempo, seguirá acumulando suficientes anomalías que nuestra herramienta podrá detectar. La precisión del reconocimiento varía en función de la calidad de los bots: del 60 al 90%, con un 5-10% de falsos positivos", explica el investigador.

El método desarrollado por los científicos del CSP ARC puede identificar los bots, así como evaluar su calidad y calcular aproximadamente el coste de cualquier ataque. Estos datos pueden utilizarse para investigar incidentes de seguridad. "Digamos que estamos revisando la cuenta en la redes social de algún restaurante y hay muchos comentarios negativos. Podemos identificar si están hechos por bots o por personas reales. Si se trata de bots, el restaurante sabrá que está siendo atacado. Además, podemos determinar la calidad y las capacidades de los bots y entender cuánto dinero se ha invertido para llevar a cabo este ataque. A partir de estos datos, será más fácil para la empresa tomar medidas para responder eficazmente a este ataque", resume Andrey Chechulin.

El proyecto cuenta con una subvención de la Fundación Científica de Rusia.