Durante el Foro Ejecutivo de Seguridad Cibernética Pro WSJ en Nueva York, varios expertos se reunieron para expresar sus opiniones acerca de las mayores amenazas del uso de Inteligencia Artificial. Entre todos los tópicos, el contenido falso fue considerado como el mayor peligro actual.

Camille François, directora de innovación de la firma de análisis de redes sociales Graphika, dice que los artículos falsos representan el mayor peligro. Algunas “fake news” creadas por humanos han sido viralizadas en redes sociales y han generado estragos, tan solo imaginemos lo riesgoso que puede ser que la automatización entre en juego, a favor del contenido falso.

Precisamente, François destaca que los artículos falsos y las campañas de desinformación de hoy dependen de mucho trabajo manual para crear y difundir un mensaje falso.

“Cuando nos fijamos en las campañas de desinformación, la cantidad de trabajo manual que se necesita para crear sitios web falsos y blogs falsos es gigantesca”, dijo François. “Si simplemente se puede automatizar texto creíble y atractivo, entonces se puede inundar Internet de basura de una manera muy automatizada y escalable”. La experta agregó que ante ese riesgo se siente realmente preocupada.

Y las fake news generadas por IA no son ciencia ficción. Recordemos que en febrero de este año, OpenAI presentó su herramienta GPT-2 que genera texto falso convincente. La IA fue entrenada en 40 gigabytes de texto que abarca ocho millones de sitios web. Pero por el temor de las repercusiones que pudieran tener las noticias falsas, la empresa de nuevas tecnologías y algoritmos decidió no lanzar públicamente GPT-2. Sin embargo, fueron los responsables de dejar esta idea en el aire y más tarde en agosto, dos graduados decidieron recrear el generador de texto de OpenAI.

Estos dos nuevos involucrados señalaron que no ven su algoritmo como una amenaza, y lo publicaron para mostrarle al mundo lo que era posible sin ser una empresa o gobierno con grandes cantidades de recursos. Vanya Cohen, una de las graduadas dijo a Wired:

“Esto permite que todos tengan una conversación importante sobre seguridad y que los investigadores ayuden a protegerse contra futuros abusos potenciales”.

En el panel del evento, Celeste Fralick, científica de datos en jefe e ingeniera principal en McAfee, recomendó que las compañías se asocien con firmas especializadas en detectar falsificaciones profundas. En el orden de ideas de las amenazas que representa la IA, también se mencionaron los “ataques adversos de aprendizaje automático” mediante los cuales un pirata informático encuentra y explota una vulnerabilidad en un sistema de inteligencia artificial.

Para describir esta amenaza Fralick puso el ejemplo de un experimento realizado por Dawn Song, profesor de la Universidad de California, Berkeley, en el que se engañó a un automóvil sin conductor al creer que una señal de alto era una señal de límite de velocidad de 45 MPH con solo usar calcomanías. Fralick agregó que McAfee realizó experimentos similares y descubrió más vulnerabilidades, por ejemplo, una señal de límite de velocidad de 35 MPH se modificó una vez más para engañar a la IA de un automóvil sin conductor.

Ambos panelistas opinan que es imperativo  asegurarse de que las personas tengan conocimientos básicos de inteligencia artificial para contrarrestar las amenazas.

Dejar respuesta

Please enter your comment!
Please enter your name here