Inicio / Blog / Frente abierto entre las redes sociales y los ciberdelincuentes

Frente abierto entre las redes sociales y los ciberdelincuentes

Publicado el 26/03/2014, por David Cantón (INCIBE)
Like

Hoy en día, la importancia e influencia de las redes sociales es indiscutible, tanto en número de usuarios como en generación de contenidos. Dada su capacidad de difusión, estos canales se han convertido en un foco de interés también para los cibercriminales, que las utilizan como medio de difusión de sus ataques y como herramienta de información. Delitos como el robo o suplantación de identidad, la pornografía infantil, el grooming, el cyberbullying, la difamación, la estafa, el espionaje,… son cometidos usando las redes sociales como forma de llegar más fácilmente a más víctimas o como fuente de información para recopilar datos fundamentales para llevarlos a cabo.

Conscientes de ello, todas las redes sociales están comprometidas en la lucha contra el cibercrimen, aunque con diferente grado de madurez o compromiso. La utilización de un servicio inseguro suele derivar en una experiencia negativa para los usuarios, hecho que repercute directamente en aspectos como la visión de la empresa, la utilización del servicio, etc. Por estos motivos, es habitual que realicen grandes inversiones en medidas de seguridad para proteger sus redes y usuarios. Estas medidas se pueden clasificar en base a dos tipos de estrategias:

  • medidas preventivas, destinadas para evitar el delito.
  • medidas reactivas, con el objetivo de detectar y reaccionar frente a los incidentes.

Medidas preventivas. Objetivo: evitar el delito

Dentro del grupo de medidas de seguridad preventivas que adoptan las redes sociales, hay conceptos tan diversos como la mejora de los mecanismos de identificación de los usuarios o la concienciación y educación sobre seguridad. A continuación se describen algunas de las medidas más reseñables:

  • Fortaleza de las contraseñas: evitar el uso de contraseñas débiles o demasiado habituales es una de las medidas básicas: redes sociales como Google+ indican al usuario la fortaleza de las contraseñas utilizadas. Por su parte, Facebook, además de una longitud mínima, exige la inclusión de números, letras y signos de puntación en la contraseña para validar el registro del usuario.

    Ejemplo de registro de una cuenta de correo en Google

    Ilustración 1 Ejemplo de registro de una cuenta de correo en Google

  • Autenticación de doble factor: se basa en la necesidad de un código adicional en la fase de autenticación del usuario. Dicho código se genera bajo demanda y es enviado, por ejemplo, al dispositivo móvil del usuario, siendo válido durante un corto periodo de tiempo. Entre las redes sociales que usan esta medida de seguridad están Google, Facebook, LinkedIn y Twitter, aunque esta última no soporta todas las operadoras de telefonía. Puede encontrar más información sobre este tipo de servicios en el contenido específico de la OSI.

    Verificación en dos pasos de Google

    Ilustración 2 Verificación en dos pasos de Google

  • Verificación de Identidad: engloba las técnicas para verificar la identidad del usuario, como asociar la cuenta obligatoriamente a un número móvil (Tuenti) o la utilización del DNI electrónico.

  • Limitación de edad: por política de uso y por razones legales (LOPD) los menores de 14 años no pueden registrarse en redes las sociales. Sin embargo, las medidas utilizadas normalmente no son eficaces.

  • Verificación de la publicidad: dentro de las políticas de seguridad de redes sociales como Facebook o Google están las medidas establecidas para la revisión y bloqueo de anuncios maliciosos, que son utilizados para la difusión de malware o la realización estafas. Además, se filtra el carácter de los anuncios, como se demuestra en la medida adoptada por Facebook de restringir este tipo de contenidos después de que varias asociaciones se quejaron por publicidad de carácter sexual o violento. Sin embargo, en este campo de medidas queda mucho por hacer, como se demuestra en que diariamente se detectan nuevas campañas de publicidad cuyo objetivo es estafar a los usuarios.

  • Concienciación sobre Seguridad: las principales redes sociales (Google, Facebook, Twitter) tienen secciones en sus web donde realizan campañas de concienciación de sus usuarios. Un usuario informado sobre las medidas básicas de seguridad será un usuario que reduzca la posibilidad de sufrir problemas y por lo tanto un usuario más satisfecho con el uso de su red social.

    Centro de seguridad para familias de Facebook

    Ilustración 3 Centro de seguridad para familias de Facebook

  • Limitar número de intentos de autenticación: es una medida que reduce la posibilidad de obtener la contraseña de un usuario mediante la fuerza bruta.

  • Bug Bounty: son programas de recompensas para los usuarios o investigadores que reporten problemas de seguridad en sus sistemas. Algunos ejemplos son: Facebook Bug Bounty, Google Vulnerability Reward Program, Twitter Reporting possible vulnerabilities o Tuenti.

    Facebook Bug Bounty

    Ilustración 4 Facebook Bug Bounty

  • Navegación segura: el uso de protocolos de comunicaciones seguros, como HTTPS, permite a los usuarios de las redes sociales cifrar los datos intercambiados y que no sean legibles por terceros en el caso de que intercepten la comunicación. Dentro de esta medida de seguridad se pueden identificar dos grupos: aquellos que solo utilizan este método durante la autenticación del usuario y los que protegen todo el intercambio de información, siendo esta última la opción más recomendable.

Medidas reactivas

Este conjunto agrupa las medidas que tienen como objetivo detectar y reaccionar frente a los delitos una vez se están llevando a cabo y reaccionar ante incidentes de seguridad tan variados como intentos de robo de cuentas, acoso, difusión de malware o campañas para estafar a sus usuarios. Algunas de las principales medidas reactivas de las redes sociales son:

  • Análisis de audiovisuales

    Hace referencia a los sistemas, tanto manuales como automáticos, que detectan contenidos multimedia relacionados con delitos de derechos de autor y, principalmente con abusos de menores o ciberbullying. El análisis de este tipo de contenidos es básico para su bloqueo temprano, de manera que se evite su distribución y así minimizar sus efectos. Además, suelen derivar en una alerta a las autoridades competentes. Alguno de los proyectos destacables dentro de este grupo son PhotoDNA de Microsoft y Video ID de Google.

    PhotoDNA es una tecnología de reconocimiento de imágenes que desarrolló Microsoft en colaboración con la Universidad de Dartmouth. Su objetivo es la búsqueda y eliminación de las imágenes de explotación sexual de menores de Internet. Este proyecto fue donado al Centro Nacional para niños perdidos y explotados «National Center for Missing & Exploited Children» (NCMEC), que es una institución de los Estados Unidos que tiene como objetivo la búsqueda y protección de menores frente a situación que afecten su integridad física y moral. Otro sistema similar, que cuenta con la participación de INTECO, es el proyecto europeo ASASEC (Advisory System Against Sexual Exploitation of Children) que tiene como misión el desarrollo de tecnologías innovadoras enfocadas en la lucha contra la pornografía infantil a nivel internacional.

    PhotoDNA: Step by Step

    Ilustración 5 PhotoDNA: Step by Step

    En colaboración con el NCMEC, Microsoft desplegó inicialmente este sistema en sus servicios de Bing, OneDrive y Outlook. En el año 2011, Facebook se unió a esta iniciativa y posteriormente Twitter. Así mismo, a mediados del año 2013 varios gigantes de internet se unieron junto con la fundación THORN : Digital Defenders of Children para crear una base de datos conjunta donde almacenar los datos de las fotografías relativas a la explotación sexual de los menores con el fin de poder utilizarla como fuente de información para prevenir este tipo de abusos. Los participantes en el proyecto pueden utilizar tanto la base de datos como la tecnología PhotoDNA sin coste alguno, así como las Fuerzas y Cuerpos de Seguridad del Estado.

    THORN TECHNOLOGY TASK FORCE

    Ilustración 6 Integrantes del THORN TECHNOLOGY TASK FORCE

    Por otro lado, Content ID es un sistema de identificación visual desarrollado por Google. Este sistema utiliza tecnología de digital fingerprinting para identificar los videos, incluso si han sido modificados. Esta información es usada para temas relacionados con los derechos de autor de los materiales audiovisuales, aunque la herramienta tiene que seguir evolucionando para conseguir un mayor grado de eficacia.

  • Análisis de la mensajería

    Junto con el análisis de contenidos multimedia, otro factor a tener en cuenta dentro de las redes sociales es la mensajería o chat entre sus usuarios. Estos chat son monitorizados por algunas las redes sociales como Facebook, para detectar actividades criminales como depredadores sexuales. El proceso de detección está dividido principalmente en dos fases: la detección automática de mensajes en base al uso de lenguaje inapropiado y del intercambio de información personal, y la monitorización por parte de personal especializado de alertas generadas automáticamente o de denuncias reportadas por los usuarios del servicio. Estos sistemas automáticos están "entrenados" a partir de los registros de los chats de pedófilos condenados, para así obtener los patrones que deben buscar.

    Sin embargo, este tipo de medidas tienen dos problemas. El primero es el concerniente a la privacidad de las comunicaciones, y el segundo, el coste que conlleva implementarlo, estimado en un técnico especializado por cada 2.000 usuarios.

  • Supervisión de enlaces

    Uno de los métodos para la difusión de malware es a través de enlaces maliciosos en las redes sociales, ya que obtienen gran propagación rápidamente. Es por esto que las redes sociales suelen monitorizar activamente los enlaces para proteger a sus usuarios. Facebook, por ejemplo, utiliza una herramienta llamada Link Shim, de manera que cuando un usuario hace clic en un enlace, Link Shim comprueba la URL contra un listado de enlaces maliciosos gestionado por Facebook, con listas de numerosos socios externos, como por ejemplo McAfee, Google, Web of Trust o Websense. Si se detecta que es una URL es maliciosa, se muestra una página intermedia antes de que el navegador haga la solicitud a la página sospechosa, alertando de la amenaza. Redes como Twitter y Google también filtran los enlaces que se publican en sus redes.

    Redirección a un enlace malicioso

    Ilustración 7 Pagina intermedia mostrada cuando se detecta una redirección a un enlace malicioso

  • Detección de actividad sospechosa

    Algunas redes sociales tienen sistemas para detectar comportamientos sospechosos de sus usuarios. Por ejemplo, si un usuario utiliza la red Tor para conectarse a Facebook, la red social detecta el intento de acceso como actividad extraña y solicita datos extra de confirmación de identidad como la fecha de nacimiento del usuario.

    Verificación de adicional de identidad

    Ilustración 8 Fase extra de verificación de identidad en Facebook al conectar desde la red Tor

    Otro ejemplo de actividad sospechosa, es la conexión al servicio desde una localización muy distante de la habitual. Por ejemplo, si un usuario se conecta habitualmente desde España y de repente se conecta desde otro país, Facebook alerta de este hecho para poder tomar medidas de seguridad.

    Verificación adicional de seguridad en Facebook

    Ilustración 9 Detección de conexión sospechosa en Facebook

  • Denuncia de contenidos

    A pesar de la acción de numerosos sistemas automáticos y personal especializado en la revisión de contenidos, la cantidad de datos que se generan diariamente es abrumadora. La única manera de abordar este problema es a través de un sistema de reporte fácil, ágil y accesible, y mediante la colaboración de los usuarios en la denuncia de contenidos maliciosos o inadecuados. Con el feedback de los usuarios, las redes sociales pueden responder de una manera ágil y así poder bloquear este tipo de contenidos. Por ejemplo, Facebook en función del tipo de contenido permite, denunciar biografías, anuncios, eventos,… o Twitter permite denunciar cada uno de los tweet que se publican.

    Reportar Tweet

    Ilustración 10 Reporte de contenidos en Twitter

En definitiva, las redes sociales suponen un ámbito más en el que poner a prueba los esfuerzos técnicos y de colaboración para trabajar hacia una sociedad digital más segura.