Nuevas formas de violencia contra las mujeres en la era de inteligencia artificial

Queremos que más niñas se involucren en carreras profesionales vinculadas a STEM (Ciencia, Tecnología, Ingeniería y Matemáticas por sus siglas en inglés), ¿qué estamos haciendo para que la tecnología sea un espacio seguro para ellas?

Hace unos días, la comunidad de streaming (personas que transmiten en vivo a través de plataformas como Twitch o Discord) fue testigo de uno de los incidentes más escalofriantes de los últimos años: durante un “en vivo”, Atrioc, una personalidad en este espacio, dejó una de las pestañas de su navegador abiertas. Con ojos como halcones, su audiencia notó que una de estas correspondía a una página web de contenido sexual generado por inteligencia artificial. Lo cuestionable de la situación empeoró cuando se descubrió que Atrioc consumía contenido pagado de “deepfakes” sexuales de otra streamer (y amiga suya), también popular.

Para comprender las implicancias de este suceso, y los riesgos que expone sobre el uso de inteligencia artificial en la internet, es importante que entendamos qué es y cómo se hace un “deepfake”. Se trata de imágenes creadas sintéticamente por machine learning e inteligencia artificial, en las que se intercambia el rostro de una persona en el cuerpo de otra. Existen casos en los que son útiles para la industria del entretenimiento (por ejemplo, la aparición de Leia en el episodio IX de Star Wars, "The Rise of Skywalker", fue fruto de un deepfake, la querida Carrie Fisher había fallecido ya para aquel momento) o casos en los que sirven para crear noticias falsas. No obstante, el uso de los deepfakes es aún predominantemente el de generar contenido sexual sin consentimiento de las personas involucradas y, en el mundo online, casi siempre está dirigido a acosar a las mujeres, especialmente aquellas que tienen una personalidad o comunidad amplia- puede ser el caso de streamers mujeres, de gamers femeninas, de youtubers, de tiktokers, en fin, ya se imaginan.

Muchas de las manifestaciones del uso de deepfakes son manifestaciones que ya conocemos de la violencia de género: “porno” de venganza, hostigamiento sexual, trata de personas, entre otras. Lo novedoso, digamos, es que ocurre en la internet y ocupa un uso absolutamente despreciable de una herramienta que es ahora un insumo esencial a todas las carreras que conocemos como STEM. Además, el impacto de los deepfake sexuales afecta tanto a la víctima como a las mujeres en la audiencia que la rodean: el sentimiento de inseguridad y desconfianza en un los espacios online que aumentan en su hostilidad, el desgaste mental y emocional de enfrentar el morbo colectivo y, por supuesto, el peso de reconocerse cosificada por cientos de miles de personas.  

Al igual que todos los usos del machine learning e inteligencia artificial que ya disfrutamos y aprovechamos, los deepfake están para quedarse. Más bien, nos toca iniciar una conversación sobre estos usos indebidos; su impacto en la creación de espacios seguros, especialmente para las niñas y mujeres que buscan acercarse a la tecnología y la internet, y su posible regulación. Creo que también es particularmente importante que las personas a cargo de niñas y niños menores de edad estén al tanto de la existencia de estas herramientas: cada año, el porcentaje de niñas y adolescentes que acceden y utilizan la internet es mayor, cada año es menos probable (y menos conveniente) que restringimos el uso de la red a nuestros hijos e hijas (los beneficios son inmensos, a pesar de que los riesgos son reales). Es necesario que promovamos un uso justo y seguro de las herramientas digitales desde lo más temprano posible: nuestros hijos e hijas, especialmente, tienen la oportunidad de crecer como agentes que activamente buscan construir espacios seguros en la tecnología y las comunidades online, exponiendo y no encubriendo a quienes les dan un uso inapropiado que, muchas veces, también constituye violencia de género.

________________________________