¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo baxulaft@gmai.com no ha sido verificado. VERIFICAR CORREO

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí.

Novedades Tecnología

Inteligencia artificial, nuevo reto en la lucha contra 'pornovenganza'

Emma Watson en la premier de "La Bella y la Bestia" en Nueva York.

Emma Watson en la premier de "La Bella y la Bestia" en Nueva York.

Foto:AFP/ Angela Weiss

Expertas temen el impacto de una tecnología que permite poner cualquier rostro en videos porno.

Miles de mujeres y organizaciones que luchan contra el mal llamado 'porno de la venganza' y que procuran frenar la difusión de contenidos sexuales sin el consentimiento de las víctimas recibieron esta semana un enorme reto: luchar contra los alcances de  la inteligencia artificial. Y, específicamente, hacer frente a las capacidades de un programa que puede crear videos pornográficos realistas reemplazando las caras originales de los actores con otros rostros.
Los falsos videos pornográficos de Gal Gadot y otras artistas como Emma Watson, Taylor Swift y Ariana Grande son denominados popularmente como 'Deepfakes'.
Salieron a la luz recientemente debido a las publicaciones de una comunidad de Reddit con más de 91.000 suscriptores donde se compartían estos montajes.
La reacción de la industria no se hizo esperar. Esta semana PornHub, Twitter y más recientemente Reddit -que se puso serio con una cuestión que inició en su plataforma- bloquearon los falsos videos pornográficos y buscarán eliminarlos de la red.
Los montajes no son algo nuevo. En diciembre, el portal MotherBoard informó que se había utilizado un algoritmo para crear videos falsos de la actriz de Wonder Woman Gal Gadot.
En enero, la práctica se popularizó después del lanzamiento de una herramienta de software llamada FakeApp, que usa inteligencia artificial para lograr el face swap (reemplazo de rostros), pero en video.
La función, que podría asemejarse a la de Snapchat con la que se pueden  intercambiar dos rostros en una misma fotografía, logra unos resultados en video muy realistas, al simular también el movimiento, y lo hace con solo presionar un botón.
El uso de inteligencia artificial para crear 'Deepfakes' permite la generación de una versión computarizada de un sujeto y asemeja las expresiones originales de otra persona en un video. Según BBC, para trabajar una pieza se requiere una selección de más de 500 imágenes diferentes de la cara del sujeto, tomadas desde diferentes ángulos.
Aunque la herramienta también se usa, por ejemplo, para continuar con una extraña tradición virtual de mofarse del actor Nicolás Cage, expertas en derechos de las mujeres y activistas han mostrado su preocupación frente al impacto destructivo que puede tener esta inteligencia artificial en la vida de las mujeres, especialmente quienes son vulnerables a ser víctimas de 'sextorsión' (práctica extorsiva que busca que una persona haga determinada acción para evitar la difusión de imágenes reales o montajes sexuales suyos).

El impacto de la viralización

Para Mónica Echeverría, directora del Observatorio de medios  y género de la Universidad Central, aunque la tecnología es una herramienta que puede usarse para acciones positivas o negativas, el caso de FakeApp y los 'Deepfakes' son "una clara violación al respeto y al derecho a la intimidad".  Además, a pesar de que herramientas como FakeApp requieran un considerable número de imágenes, algunas piezas de video y otros materiales pueden conseguirse a través de redes sociales.
"Aunque esta no es una afectación exclusiva de las mujeres, sin duda, son ellas las más afectadas frente a este tipo de violencia. Además, no se va a tratar solamente de mujeres mediáticas y actrices sino que también chicas universitarias, profesoras, mujeres en la oficina, cuyos rostros van a ser usados para la 'diversión' de una manera tan indignante como la pornografía falsa" aseguró Echeverría.
Eliana Riaño, miembro de la Mesa por el Derecho de las Mujeres a una Vida Libre de Violencias y de la Red de Salud de las Mujeres Latinoamericanas, aseguró que en un contexto en el que los hombres son "aplaudidos" por mantener múltiples relaciones sexuales pero las mujeres no, cualquier mujer que desafíe los referentes sociales que le rodean "puede ser tildada de menos mujer o menos digna. Ninguna mujer quiere que le digan eso ni sentirse de esa manera" aseguró.
En algunos casos, mujeres que han sido víctimas de 'sextorsión' o de difusión de material sexual sin su consentimiento han llegado al suicidio. En el caso de Tiziana Cantone, en Italia, la mujer fue víctima de la difusión sin su consentimiento de un material que había accedido grabar anteriormente (para uso privado).  La reacción virtual fue la justificación del acoso y la burla por haber dicho "¿estás grabando? ¡Bravo!". Incluso, algunas personas imprimieron camisetas con la frase. Cantone se suicidó en 2016.
El caso de Amanda Todd es recordado por la viralización del video en el que la adolescente hablaba del ciberbullying del que era víctima y explicaba las razones de su suicidio. La joven había sido engañada para mostrar sus senos en una webcam y la imagen había circulado de forma masiva en internet.
Según Riaño, el impacto de difundir imágenes reales o montajes de las mujeres que exponen su intimidad sin su consentimiento es devastador y les puede llevar mucho tiempo recuperarse.
"Es un impacto profundo porque afecta todos los espacios de la vida de las mujeres: Además de la honra o la buena imagen, esto afecta el derecho a la integridad, a la igualdad, al reconocimiento de su intimidad, al libre desarrollo de la personalidad, a la libertad de expresión y hasta a decidir sobre si misma", aseguró.
Por otro lado, la experta apuntó que el exponer la intimidad sexual de una mujer podría justificar otras formas de violencia. Comentó que quienes sufren estos ataques dejan de ser contratados por las empresas. En el caso de las mujeres, algunas son expulsadas de sus casas. Otras abandonan las instituciones en las que se hicieron públicas sus imágenes. "Muchas deben irse de sus hogares, colegios, e incluso del país en el que han vivido siempre y pasa mucho tiempo mientras pueden llegar a reconfigurar múltiples aspectos de sus vidas", dijo Riaño.

¿Por qué se comparten esos contenidos?

Según Ana María Moreno, directora de EnRedo, organización colombiana sin ánimo de lucro que trabaja en temas de socialización de TIC, FakeApp se ha convertido rápidamente en una herramienta de acoso en línea y de una modalidad de agresión similar al 'porno de venganza'. pero según Moreno la aplicación plantea un un agravante adicional "Al ser videos falsos entran en el ámbito de la difamación, en ambos casos afectando intencionalmente la reputación, intimidad y buena imagen de la víctimas, que hasta ahora han sido actrices y figuras públicas. Incluso podría implicar calumnia y difamación puesto que son personas puestas virtualmente en situaciones en las que nunca decidieron estar".
La viralización de los 'Deepfakes' también trae un debate sobre la facilidad con la que un determinado grupo utiliza la tecnología para difamar a otros.
La razón por la que la sociedad tiende a publicar este tipo de contenidos - afirmó Eliana Riaño - es que la virtualidad abre una puerta que aún no sabemos manejar: La posibilidad, por ejemplo, de violentar a otros sin recibir una sanción.
"Cualquiera puede abrir cuentas en redes sociales, subir un video como si nada y el material puede ser descargado y compartido en pocos minutos. Las personas no se detienen a pensar si un video donde aparece el cuerpo de una mujer (que no quería ser expuesta) es o no una violencia. Y eso es resultado de que a las mujeres se nos lee como un objeto. Una cosa con la que se puede hacer lo que quieran", puntualizó Riaño.
Por su parte, Ana María Moreno explicó que otro problema es que los jóvenes empiecen a utilizarlo en contra de sus compañeros, puesto que los menores son sujetos de protección especial. "Por ejemplo, ¿cómo se manejaría si el rostro de una menor de edad es usado en un video porno falso, sería 'pornografía infantil'? Si así fuera, es un delito y quien la distribuya podría ser considerado como un delincuente".
Este tipo de conductas en Colombia no son un delito tipificado aún. Según la Dijin, en el caso particular de un montaje, como los realizados para material 'Deepfake', se investiga una afectación a la honra y la buena imagen de la víctima y esos casos pueden ser denunciados a través del CAI virtual. Así mismo, en caso de que el material involucre a menores de edad, existe la línea de denuncia de la Red Te Protejo.
Según Mónica Echeverría, el caso de FakeApp también destaca la importancia de que se generen debates alrededor del uso de la tecnología en los gobiernos, en los usuarios y en los creadores mismos de este tipo de software. "Esto debe ser algo de lo que se hable en los estados, en la academias, en los ministerios, porque hay que establecer límites. Para ello no siempre la solución son leyes o prohibiciones. También necesitamos educación para que los usuarios entiendan qué derechos se vulneran con el uso de estas tecnologías", puntualizó.
LINDA PATIÑO
@LinndaPC
REDACCIÓN TECNOLOGÍA 
icono el tiempo

DESCARGA LA APP EL TIEMPO

Personaliza, descubre e informate.

Nuestro mundo

COlombiaInternacional
BOGOTÁMedellínCALIBARRANQUILLAMÁS CIUDADES
LATINOAMÉRICAVENEZUELAEEUU Y CANADÁEUROPAÁFRICAMEDIO ORIENTEASIAOTRAS REGIONES
horóscopo

Horóscopo

Encuentra acá todos los signos del zodiaco. Tenemos para ti consejos de amor, finanzas y muchas cosas más.

Crucigrama

Crucigrama

Pon a prueba tus conocimientos con el crucigrama de EL TIEMPO