Extrapolítica y GobiernoRiesgosTecnologías y NBIC

Infocalipsis

El término infocalipsis empezó a cobrar popularidad gracias a Aviv Ovadya, cofundador del Proyecto para Tecnología Responsable, en el año 2016 cuando predijo el caos sociopolítico que causaría la propagación de noticias falsas en redes sociales. Lo llamativo de dicha predicción ha sido su acierto sobre la importancia que empiezan a cobrar las redes sociales en el ámbito político, rol que se intensificó en la última elección presidencial estadounidense.

El término fue acuñado en los años noventa por el ingeniero electrónico y científico senior de Intel, escritor político y tecnólogo, y fundador del movimiento Crypto Anarquista, Timothy C. May, en su ensayo titulado: Crypto Anarquía y Comunidades Virtuales. El clima infocalíptico del que May nos advertía con aquel término sarcástico, engloba al ecosistema distópico generado por grupos de comunidades criminales que, gracias al anonimato y al acceso libre a la encriptación, podrían ejecutar acciones ilícitas y resultar impunes. Asimismo, May afirmaba que este ecosistema enfermizo sería la amenaza principal para los derechos del usuario, tales como el anonimato y la libertad de expresión, pues el clima de incertidumbre y de temor constante a que nuestra integridad se halle en peligro nos invitará recurrentemente a escoger entre seguridad y nuestra propia libertad.

En cuanto a las noticias falsas, en los últimos años estas han llamado la atención de muchos gobiernos, y su difusión y producción empieza a ser considerado como delitos. Motivo por el que existen gobiernos en los que están empezando a condenar a los perpetradores. Actualmente en Alemania, Francia, Rusia, Malasia y Singapore, ya se han tomado medidas legales en contra de las fakenews. Los 5 países han aprobado recientemente leyes en contra de la difusión de noticias falsas, delito que puede ser penado con hasta 10 años de prisión o con multas de hasta 735 000 USD.

Estas medidas repentinas han sorprendido a los internautas, abriendo el debate entre usuarios a favor y en contra de dichas políticas. Existen sospechas de que estas leyes sean la excusa perfecta para abrir el camino a una censura masificada en Internet. Un caso que ilustra dicha problemática de manera fidedigna es el de Rusia. Se trata de un país en el cual se ha prohibido la difusión de noticias falsas, así como noticias que, en esencia, falten el respeto al gobierno y a símbolos que representen al gobierno y/o al presidente Vladimir Putin.

 A pesar de los argumentos en su contra, la medida tomada para controlar la difusión de noticias falsas no es del todo inaudita pues la propagación de estas ha sido el detonante de sucesos caóticos. Uno de los casos más resaltantes fue la muerte de varias decenas personas en India en un lapso de aproximadamente dos años.

A inicios del año 2017 se registró una ola indiscriminada de noticias falsas en la India que culpaba a un grupo de personas, presuntamente inocentes, de secuestrar menores de edad. Esto se sumó a la histeria masiva pre-existente en el país con respecto al alto índice de robos, violaciones, secuestros y la inseguridad en general y desembocó en un intento violento de hacer justicia de los pobladores. En Mayo iniciaron los linchamientos en el pueblo de Jharkhand como consecuencia de la viralización de mensajes de WhatsApp llamando la atención de la comunidad al probema de los secuestros. El 17 de Mayo del 2017, siete hombres fueron asesinados a golpes en distintos pueblos de Jharkhand, en India. Entre mayo del 2017 y julio del 2018 se registraron 46 muertes y 43 heridos en linchamientos causados por la divulgación de rumores solo por medio de esta aplicación.

El gobierno de la India llegó a amenazar a la empresa de mensajería instantánea afirmando que tomaría acciones legales en contra de ésta si no actuaba para aliviar el problema. De inmediato Whatsapp limitó el número de reenvíos de mensajes a cinco personas a la vez, condenando la difusión de fakenews y ratificando que deseaban mantenerse como empresa de mensajería privada.

La situación se complica aún mas, ya que la aplicación así como otras numerosas redes sociales, fueron utilizadas en Junio del 2018 de manera efectiva, precisamente para identificar a un niño de seis años que había sido secuestrado en Nueva Delhi.

El Centro para la Nueva Seguidad Americana (CNASA), organización que se encarga de promover la seguridad entre la clase política dio a conocer, mediante su informe publicado el 10 de Julio del 2018 titulado: Inteligencia Artificial y Seguridad Internacional (Artificial Intelligence and International Security), que el desarrollo de la inteligencia artificial podría proponer riesgos severos para la seguridad internacional, pero que también posee la habilidad de mitigar el peligro de la desinformación.

Uno de los últimos logros de la inteligencia artificial y un reto importante para la detección de videos falsificados, son los deepfakes, palabra que fue creada uniendo deep learning y la palabra fake (falso en inglés). Éste es un método para crear imágenes humanas usando IA. El método funciona de la siguiente manera: primero, imágenes de las expresiones faciales de una persona se suben al programa generador, a continuación se sube el audio para generar la imitación de la voz. Finalmente el algoritmo IA sincroniza el audio con las imágenes creando un video en el cual se puede lograr que la persona imitada diga o haga lo que sea. Este mecanismo está siendo usado para el entretenimiento, pero también puede ser usado para la falsificación de evidencia o una forma de propagación de noticias falsas mucho más eficaz.

Los videos que actualmente se pueden encontrar en sitios como YouTube e Instagram siempre nos dejan en claro el alto peligro que esta tecnología podría significar para las próximas elecciones, así como para la credibilidad de figuras políticas prominentes, empresas y celebridades. Sin embargo, existen ya numerosas iniciativas de investigación tecnológica consistentes en algoritmos para la detección de fake news. Uno de ellos es la unión de Google y la Red Internacional de Revisión de Hechos (International Fact Checking Network) en el Instituto Polynter y el Challenge de Fake News del MIT, entidades como AdVerif.ai, que analizan y detectan contenido problemático, y redes sociales emergentes como PUBLIQ que utilizan blockchain, encriptando cada historia subida por sus creadores de contenido para proporcionar confiabilidad en la información y seguridad para sus creadores.

El informe publicado por CNAS también menciona, aunque brevemente, la capacidad de los deepfake para afectar al ciudadano común. El usuario común de la web es actualmente el más vulnerable a los ataques personalizados de ingeniería social o phising. En esta modalidad de estafa por internet el atacante se hará pasar por algún servicio online o por algún familiar, compañero de trabajo y/o hasta jefe de la víctima, imitando con peligrosa exactitud, la voz, el rostro y manerismos de la persona a quien desea emular. Desafortunadamente, la tecnología actual y el libre acceso a las redes sociales no solo ofrecen el material necesario (fotografías del rostro de la persona) para elaborar un deepfake sino también el potencial para automatizar el ataque y hacerlo aún más efectivo con el uso de videollamadas y/o archivos de audio y video falsificado.

Este no es un campo nuevo de investigación, es un problema con el cual el usuario de internet debe lidiar a diario, empezando por los robos de información de tarjetas de crédito, ya sea por ingeniería social o por filtración de información en bases de datos.

Se generan nuevos retos en los años venideros. Quizás iremos aprendiendo mediante ensayo y error en qué mensajes confiar y en cuáles no, de misma forma en que hemos aprendido a dudar de los correos electrónicos que piden nuestra información vulnerable. Quizás se abra un nuevo nicho en el mercado el cual venda software capaz de reconocer deepfakes para proteger a los usuarios en casa y a los trabajadores de empresas.

Pareciera que nos estamos acercando a un momento en el que los ataques informáticos domésticos sean una amenaza tan evidente que deberemos tener legisladores con el conocimiento técnico suficiente para tomar decisiones que se ajusten a la realidad de cada país y sobre todo al avance tecnológico actual.

La fabricación de estos videos es cada vez más sencilla y el software utilizado para generar estos videos se encuentra disponible para cualquiera que desee aventurarse en el campo de la síntesis de imágenes basado en inteligencia artificial. Este año, desarrolladores en Imperial College London se unieron al Centro de Inteligencia Artificial de Samsung en Cambridge para crear un sistema que solo necesitaría una foto para crear videos del tipo deepfake. Estamos advertidos.

Informe y ejemplos: https://sites.google.com/view/facial-animation/home

Se puede observar la efectividad del software accesible al público en los siguientes videos:

Hillary Clinton /Kate McKinnon – SNL

Nick Offerman / Todos los Personajes- Full House

Jim Carey / Jack Nicholson – The Shining

 

Deep Fake de Hillary Clinton – Youtube

Karen Montes

Colaboradora y miembro del IET

Agregue un comentario

Su dirección de correo no se hará público. Los campos requeridos están marcados *