I film porno Deepfake fanno stare male le vittime

Un cortometraggio documentario uscito di recente, senza il consenso dei fotografi ‘con tecnologia deepfake’ Racconta le esperienze di uno scrittore inserito in un film porno.

Foto: la mia ragazza bionda

Deepfake è un termine che descrive i file audio e video creati utilizzando l’intelligenza artificiale. È possibile trovare tutti i tipi di deepfake: file in cui il volto di una persona viene sostituito da un altro, sincronizzazioni labiali in cui la bocca di chi parla può essere adattata a una colonna sonora diversa dall’originale, una tecnica di clonazione della voce utilizzata per far dire alla persona cose che non hanno detto…


Foto scattate mentre si sorride o si è incinta

Un recente breve documentario racconta la storia di un autore che, senza il suo consenso, fa aggiungere le sue fotografie ai volti degli attori del film.

Il breve documentario di Rosie Morris My Blonde GF (My Blonde Girlfriend) racconta le esperienze della scrittrice Helen Mort dopo aver appreso che le foto deepfake sono state utilizzate su un sito porno.

Nel film, Helen è vista passare al setaccio le foto di se stessa di età compresa tra i 19 e i 32 anni, sorridente o incinta. Ma queste foto sono foto di donne corrette digitalmente da Helen in scene sessuali e violente.

parlare con il bbc Il regista Morris ha detto che voleva esaminare gli effetti di queste fotografie su Helen e sulla sua vita, e mirava a trasmettere gli incubi e la paranoia vissuti da Helen.

Helen parla nel film: “Mi sentivo come se quelle immagini fossero reali. È difficile per me descrivere come ci si sente a qualcuno che non si è visto in quel modo. Quindi fisicamente non mi hanno fatto niente. Ma hanno messo queste immagini nella mia testa. Non posso far finta di non vedere queste foto, non mi è possibile guardare le mie fotografie utilizzate in queste immagini come se nulla fosse accaduto.

“Non è facile separare le foto dalla memoria”

Morris spiega gli effetti delle fotografie su Helen:

*La parte più inquietante è che non è molto facile separare le foto dalla memoria. Quindi, quando ti guardi indietro, non sai se quello che ricordi è quel momento o una sua foto.

*Quindi quello che succede a Helen è che queste immagini legate ai suoi ricordi assumono una forma diversa. Come se qualcuno avesse impiantato falsi ricordi nella sua memoria. È impossibile quantificare l’entità di questo trauma.

Secondo un report pubblicato da Sensity AI, che lavora sulla tecnologia deepfake, nel 2019 il 96% delle immagini utilizzate in questi filmati non ha avuto il consenso delle vittime. Inoltre, il 99% delle vittime erano donne.

La domanda di “Deepfake” è aumentata: da $ 300 a $ 20.000 al minuto

Cajetan Longo

"Tipico nerd dei social media. Giocatore. Appassionato guru di Internet. Generale piantagrane. Studioso del web."

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *