Como Edwards demuestra a través de múltiples ejemplos visuales para Ars Technica, se pueden “educarse” tan solo cinco imágenes mediante el modelado de concepción de imágenes de IA ahora arreglado públicamente para crear de modo efectiva una novelística completamente ilusoria sobre cualquier individuo objetivo. Dichas imágenes pueden seleccionarse de una cuenta de redes sociales o tomarse como “fotogramas” individuales de videos publicados en cualquier sitio en serie. Siempre que se pueda ceder a la fuente de la imagen, ya sea a través de esa dudosa configuración de “privacidad” o por cualquier otro medio, el maniquí de IA puede trabajar en ella de la forma que le plazca al legatario. Por ejemplo, como explica Edwards, se pueden alegrar imágenes que muestren “fotos policiales” criminales realistas o actividades ilegales y lascivas, y luego se pueden propagar de modo sencillo y anónima en un empleador, un medio de comunicación o en una sala de chat de la escuela primaria en TikTok. El equipo de Edwards usó modelos de imagen de IA de código libre Stable Diffusion y Dreambooth para “alegrar” fotografías de un sujeto de prueba de imagen generado artificialmente (llamado “John”), incluida una que muestra a “John” semidesnudo frente a un diversión de juegos para niños, “John” vestido de payaso y haciendo cabriolas en un bar nave, o “John” parado desnudo en su clase vacía, acordado antaño de que entren sus alumnos.
Como informa Edwards:
Gracias a la IA, podemos hacer que John parezca cometer actos ilegales o inmorales, como irrumpir en una casa, usar drogas ilegales o ducharse desnudo con un estudiante. Con modelos adicionales de IA optimizados para la pornografía, John puede ser una fortuna porno, y esa capacidad puede incluso convertirse en MASI condado.
Incluso podemos producir imágenes de John haciendo cosas aparentemente inocuas que aún podrían ser personalmente devastadoras para él: ingerir en un bar cuando se comprometió a permanecer sobrio o acaecer tiempo en algún sitio donde se supone que no debe estar.
Significativamente, la única razón por la que el equipo de Edwards usó una construcción sintético fue que un “voluntario” de la vida vivo finalmente se mostró inobediente a permitir que se publicaran sus propias imágenes alteradas en serie, adecuado a problemas de privacidad.
La tecnología de modelado de IA está evolucionando hasta el punto en que es prácticamente inasequible distinguir esas imágenes de las reales. Entre las sugerencias que Edwards describe para mitigar el atropello de esta tecnología, se encuentran protecciones como exigir legalmente una “marca de agua” digital invisible u otras etiquetas subrepticias en este tipo de imágenes generadas artificialmente, pero, como explica Edwards, incluso si tales “falsificaciones” son en última instancia detectable, todavía existe el potencial de daño irrevocable a la reputación personal o profesional de determinado. En otras palabras, una vez que un peque en años escolar es calumniado de esta modo, les importa muy poco si se demuestra que las llamadas “fotos” son falsas.
Las grandes empresas de tecnología responsables de la creación de software de modelado de IA han sido criticadas por no indagar los costos humanos potenciales que conlleva la incorporación de esta tecnología (en particular, su dependencia de conjuntos de datos que incorporan estereotipos y representaciones racistas y sexistas). Y, como señala Edwards, los modelos de estudios profundo de IA disponibles comercialmente ya han generado consternación entre los artistas gráficos profesionales cuyo propio trabajo protegido por derechos de autor ha sido copiado por IA para crear imágenes para uso comercial.
En cuanto a las posibles consecuencias humanas del mal uso malvado de la IA, Edwards cree que las mujeres son especialmente vulnerables.
Una vez que la cara o el cuerpo de una mujer se entrena en el conjunto de imágenes, su identidad puede insertarse trivialmente en imágenes pornográficas. Esto se debe a la gran cantidad de imágenes sexualizadas que se encuentran en conjuntos de datos de entrenamiento de IA de uso global (en otras palabras, la IA sabe cómo generarlos muy proporcionadamente). Nuestros sesgos culturales en dirección a la representación sexualizada de mujeres en serie han enseñado a estos generadores de imágenes de IA a sexualizar su producción por defecto.
Enfrentados a una intrusión en su privacidad potencialmente devastadora y que cambia el modelo, la muchedumbre sin duda racionalizará que es poco probable que les suceda. Eso puede muy proporcionadamente ser cierto para la mayoría, pero a medida que dicha tecnología se vuelve más arreglado y más sencillo de invertir para los tipos no técnicos, es difícil no imaginar el potencial de interrupción social que implica. Para aquellos que creen que podrían valer un aventura exclusivo, una decisión que Edwards sugiere que “puede ser una buena idea” es eliminar todas sus fotos en serie. Por supuesto, como él reconoce, eso no solo está personalmente fuera de discusión para la mayoría de las personas (adecuado a su anexión a las redes sociales), sino que para muchos todavía es inasequible en la praxis. Los políticos y las celebridades, por ejemplo, cuyas fotografías se han publicado en Internet durante décadas, y cuya visibilidad los convierte en objetivos naturales para tales “falsificaciones profundas”, es probable que sean los primeros en encontrarse obligados a asaltar el problema, ya que esta tecnología se vuelve cada vez más extendida.
Por supuesto, siempre existe la posibilidad de que finalmente nos acostumbremos tanto a estas intrusiones que pierdan su validez. Como Edwards sugiere:
Otro contraveneno potencial es el tiempo. A medida que crece la conciencia, nuestra civilización puede eventualmente absorber y mitigar estos problemas. Podemos aceptar este tipo de manipulación como una nueva forma de verdad mediática de la que todos deben ser conscientes. La procedencia de cada foto que veamos se volverá mucho más importante; Al igual que hoy, necesitaremos entregarse en manos completamente en quién está compartiendo las fotos para creer cualquiera de ellas…[.]
Desafortunadamente, la “confianza” es un proporcionadamente escaso, particularmente en el entorno política y socialmente polarizado en el que vivimos actualmente, donde las personas tienden a creer lo que sea que se ajuste a sus predisposiciones. Parece apropiado que la existencia misma de las redes sociales y la mentalidad de “burbuja” cuidadosamente filtrada que fomenta sea probablemente el veterano facilitador de este tipo de invasión no deseada, solo el ejemplo más fresco de la privacidad que todos sacrificamos desde el momento en que nos comunicamos por primera vez. “sesión iniciada.”