
Lensa IA, popular aplicación de inteligencia artificial, se ha robado el protagonismo en el mundo digital estos últimos días, pues muchos internautas han empleado su servicio para crear una serie de avatares y compartirlos, posteriormente, en sus redes sociales. No obstante, más allá de la diversión, el programa —que tiene la capacidad de utilizar las fotografías de sus usuarios para generar retratos en diferentes estilos de animación— ha sido objeto de numerosas críticas, pues parece que configura sus imágenes no sólo a partir de las fotos de quien lo usa, sino también de varios estereotipos, sobre todo de raza y género.
Varios usuarios racializados de Lensa IA han denunciado la poca capacidad que tiene la aplicación para retratar a personas de color, o a aquellas que se salen de los estereotipos de la apariencia blanca y hegemónica. Según los señalamientos, cuando se trata de las ilustraciones de personas de piel oscura casi nunca se logra precisión en la particularidad de los rasgos de cada uno, por lo que los avatares resultantes parecen, más bien, imágenes genéricas y basadas en estereotipos.
Por otra parte, muchas de las mujeres que usaron la aplicación se fijaron en que su imagen había sido sexualizada. Así las cosas, al momento de revisar sus avatares encontraron que, en la mayoría de ellos, lo que más resaltaba eran los pechos grandes y las poses sugerentes, incluso en casos donde las fotos que se enviaron de referencia eran todo lo contrario.
Ante los señalamientos, la empresa encargada de la aplicación explicó que el programa fue entrenado en contenido de internet sin filtrar, por lo que refleja los sesgos que los humanos incorporan, en su mayoría, en las imágenes que producen. En otros términos, la inteligencia artificial aprendió observando el comportamiento de los usuarios, por lo que la sexualización y el racismo que pueden reproducir en sus imágenes no obedece a una decisión consciente de parte de los creadores, sino que, más bien, está directamente relacionado con los problemas de la estructura social.
Ahora bien, a pesar de que la aplicación prohíbe el uso de su inteligencia artificial para la creación de contenido sexual explícito, se ha demostrado que es fácil engañar la interfaz para que lo produzca. Trabajadores del medio TechCrunch realizaron un experimento en el que alimentaron la base de datos del programa con imágenes manipuladas de la cara de una celebridad con el torso desnudo de otra persona. A partir de eso, la IA generó casi una decena de fotos topless con la cara de dicho personaje, hecho que supone un problema en términos de seguridad digital porque puede llegar a exacerbar el fenómeno de la porno venganza.
Como respuesta a la problemática, los desarrolladores de esta y otras aplicaciones de inteligencia artificial parecidas declararon que están tomando medidas para obstaculizar la generación de imágenes pornográficas, en donde lo que más resalta es la revisión y eliminación de todo el contenido explícito y para adultos que se encontraba en sus bases de datos. No obstante, también resaltaron que para que exista un uso ético de los programas, los usuarios deben comprometerse a ceñirse a los reglamentos establecidos, mientras que actúan desde la moralidad; porque las IA, en últimas, no son más que un reflejo de los humanos que las utilizan.