xrayer
Utente Inattivo da oltre 365 giorni
- Messaggi
- 116
- Punteggio reazione
- 12
- Punti
- 49
- Age
- 53
Mi sono accorto oggi della chiusura delle sezioni destinate ai fake per via di alcuni deepnude che sono stati notati qui... prima o poi doveva succedere...forse era il mio obbiettivo far conoscere questo software alla massa...o forse cercavo solo un modo per "suicidarmi" visto che ho fallito in molte cose su cui contavo (sia io sia gli admin che tutti gli altri che hanno creato questi contenuti, ormai siamo schedati...a proposito faccio un saluto alle Iene, che sicuramente leggeranno questo post). Non credo che alla maggioranza della gente qui dentro interesserà quello che scrivo...per tutti gli altri ci sono i commenti.
Visto che le sezioni dei fake sono ormai chiuse non ha senso che io rimanga qui...questo è il mio ultimo post (o forse sono le mie ultime parole prima della gogna...)
Il video per chi non lo avesse ancora visto è questo:
Sono venuto su questo sito alcuni mesi fa con un obbettivo preciso (oltre al "divertirmi"), cioè provare a vedere se le conoscenze che avevo acquisito in tanti anni di lavoro sull'elaborazione dati potessero avere un utilizzo in altri campi, diversi da quello su cui mi sono soffermato finora ed in cui mi è stato impossibile proseguire i lavori in modo adeguato. Il primo software per xray che ho testato qui era un mio vecchio progetto "riadattato" all'uso pornografico, ma nato con uno scopo molto diverso. Mi ero accorto per caso che era possibile usarlo per ottenerci delle immagini molto simili agli xray vecchio stampo (non fotorealistici) presenti su questo sito, quindi volevo vedere se almeno la sessualità, uno dei motori che fa muovere meglio l'uomo, potesse essere un volano per far apprezzare il mio lavoro e magari per poi diffonderlo. Questo giocattolo non è granchè per fare queste cose, d'altronde non era nato per questo, tuttavia ho notato con piacere che qualche richiesta l'ho ricevuta. (anche se non ho trovato nessuno abbastanza interessato con cui condividerne lo sviluppo...)
Poi ho scoperto qui da altri utenti i deepfake ed i deepnude...sebbene il comprendere a fondo queste tecnologie sia al momento fuori dalla mia portata ho cominciato a studiarne l'utilizzo, sia per l'uso xxx sia in previsione di come magari un giorno potrei tornare ad utilizzare tecnologie simili nel campo da cui provengo. Di fatto deepnude non genera solo contenuti fotorealistici, ma mostra quale sarebbe il più probabile risultato "reale"...e questo è molto interessante anche in altri ambiti! (anzi...forse più in altri ambiti) inutile dire che il fotorealismo di questi programmi ha destato molto interesse nel resto del forum.
Personalmente ritengo che sia L'ODIO il male dell'internet moderno... un male vecchio quanto l'uomo che grazie alla rete può propagarsi molto velocemente ovunque. L'avvento attuale dei social ha anche trasformato poi quest'odio in un modo per fare soldi o avere consenso. E' questo il vero nemico di tutti noi... un nudo di per se non uccide e non danneggia nessuno (siamo nati nudi!) finchè qualcuno non inizia ad apostrofare la persona rappresentata con offese di ogni genere (o questa ha paura che questo accada). Tenete inoltre presente che, come avevo detto altre volte, usando deepnude praticamente chiunque può creare un nudo della persona rappresentata.. da ciò si deduce che tutta l'informazione necessaria a generare quel nudo è già contenuta nello scatto originale! (più è già nuda e meglio è... pensateci, cosa volete trasmettere ai fruitori dei vostri contenuti? deepnude fa semplicemente lo stesso lavoro che fa il nostro cervello, ma convertendolo in file). Paradossalmente, si potrebbero diffondere solo le foto vestite e commentare solo quelle generando i nudi localmente (basta farsi un giro su qualunque sito porno per vedere ciò... non serve deepnude)...potrebbe anche essere il futuro del porno! (magari in Cina....)
Mi chiedo anche come mai deepnude e deepfake facciano tanta impressione... a ben guardare molta gente su cui qui è stato usato deepnude ha subito anche fake di vario tipo fatti molto meglio (non è così difficile fare un fake...basta guardarsi qualche tutorial) ma nessuno dice che photoshop sia il male in terra...a proposito, molti dei post visibili nel video di cui sopra erano di normali fake.
Mi chiedo inoltre cosa succederebbe se questa tecnologia si diffondesse maggiormente... (la vedo difficile fermarla... ci sono intere aziende che stanno investendo sulle IA) se tutti possono essere denudati ha ancora senso offendere ed odiare una persona che fa foto di nudo? (o vergognarsi per questo?)
Sono contento che le Ieni abbiano dedicato un video a questa cosa... l'IA usata male può avere conseguenze molto peggiori di 4 tette all'aria (pensate se Striscia la Notizia non avesse specificato che i suoi deepfake siano per l'appunto fake). Attualmente sono disponibili sistemi che consentono di falsificare anche la voce di una persona o di creare un deepfake usando anche una sola foto! (i deepfake classici necessitano di decine o centinaia di foto) Nascondere queste realtà al mondo non serve a nulla...anzi se nessuno ne conosce l'esistenza corriamo grandi rischi tutti (alla fine forse è meglio sapere che chiunque può essere denudato da un IA piuttosto che non insospettirsi quando vediamo qualcuno fare o dire cose insolite in un video fake) Magari un giorno avremo anche la possibilità di modificare altri aspetti dei video oltre alle facce.. (che sono forse la cosa più complicata) e così una busta della spesa può diventare una bomba!
Per phicamaster: non capisco perchè non hai rimosso subito le foto che ti hanno segnalato...in effetti su questo le Iene hanno ragione, ci vorrebbe una sorveglianza migliore qui.
Credo di aver finito...
Visto che le sezioni dei fake sono ormai chiuse non ha senso che io rimanga qui...questo è il mio ultimo post (o forse sono le mie ultime parole prima della gogna...)
Il video per chi non lo avesse ancora visto è questo:
Deepnude: Chiara Ferragni e Fedez vittime di una (falsissima) foto bufala - Le Iene
Si chiama deepnude la tecnica con cui si possono fare foto o video bufala con il volto di persone totalmente nude. E il 90% sono prodotti del deeporn, tant'è che in California è paragonato al reato del revenge porn. Matteo Viviani mostra a Fedez foto di una ragazza nuda con il volto di Chiara...
www.iene.mediaset.it
Sono venuto su questo sito alcuni mesi fa con un obbettivo preciso (oltre al "divertirmi"), cioè provare a vedere se le conoscenze che avevo acquisito in tanti anni di lavoro sull'elaborazione dati potessero avere un utilizzo in altri campi, diversi da quello su cui mi sono soffermato finora ed in cui mi è stato impossibile proseguire i lavori in modo adeguato. Il primo software per xray che ho testato qui era un mio vecchio progetto "riadattato" all'uso pornografico, ma nato con uno scopo molto diverso. Mi ero accorto per caso che era possibile usarlo per ottenerci delle immagini molto simili agli xray vecchio stampo (non fotorealistici) presenti su questo sito, quindi volevo vedere se almeno la sessualità, uno dei motori che fa muovere meglio l'uomo, potesse essere un volano per far apprezzare il mio lavoro e magari per poi diffonderlo. Questo giocattolo non è granchè per fare queste cose, d'altronde non era nato per questo, tuttavia ho notato con piacere che qualche richiesta l'ho ricevuta. (anche se non ho trovato nessuno abbastanza interessato con cui condividerne lo sviluppo...)
Poi ho scoperto qui da altri utenti i deepfake ed i deepnude...sebbene il comprendere a fondo queste tecnologie sia al momento fuori dalla mia portata ho cominciato a studiarne l'utilizzo, sia per l'uso xxx sia in previsione di come magari un giorno potrei tornare ad utilizzare tecnologie simili nel campo da cui provengo. Di fatto deepnude non genera solo contenuti fotorealistici, ma mostra quale sarebbe il più probabile risultato "reale"...e questo è molto interessante anche in altri ambiti! (anzi...forse più in altri ambiti) inutile dire che il fotorealismo di questi programmi ha destato molto interesse nel resto del forum.
Personalmente ritengo che sia L'ODIO il male dell'internet moderno... un male vecchio quanto l'uomo che grazie alla rete può propagarsi molto velocemente ovunque. L'avvento attuale dei social ha anche trasformato poi quest'odio in un modo per fare soldi o avere consenso. E' questo il vero nemico di tutti noi... un nudo di per se non uccide e non danneggia nessuno (siamo nati nudi!) finchè qualcuno non inizia ad apostrofare la persona rappresentata con offese di ogni genere (o questa ha paura che questo accada). Tenete inoltre presente che, come avevo detto altre volte, usando deepnude praticamente chiunque può creare un nudo della persona rappresentata.. da ciò si deduce che tutta l'informazione necessaria a generare quel nudo è già contenuta nello scatto originale! (più è già nuda e meglio è... pensateci, cosa volete trasmettere ai fruitori dei vostri contenuti? deepnude fa semplicemente lo stesso lavoro che fa il nostro cervello, ma convertendolo in file). Paradossalmente, si potrebbero diffondere solo le foto vestite e commentare solo quelle generando i nudi localmente (basta farsi un giro su qualunque sito porno per vedere ciò... non serve deepnude)...potrebbe anche essere il futuro del porno! (magari in Cina....)
Mi chiedo anche come mai deepnude e deepfake facciano tanta impressione... a ben guardare molta gente su cui qui è stato usato deepnude ha subito anche fake di vario tipo fatti molto meglio (non è così difficile fare un fake...basta guardarsi qualche tutorial) ma nessuno dice che photoshop sia il male in terra...a proposito, molti dei post visibili nel video di cui sopra erano di normali fake.
Mi chiedo inoltre cosa succederebbe se questa tecnologia si diffondesse maggiormente... (la vedo difficile fermarla... ci sono intere aziende che stanno investendo sulle IA) se tutti possono essere denudati ha ancora senso offendere ed odiare una persona che fa foto di nudo? (o vergognarsi per questo?)
Sono contento che le Ieni abbiano dedicato un video a questa cosa... l'IA usata male può avere conseguenze molto peggiori di 4 tette all'aria (pensate se Striscia la Notizia non avesse specificato che i suoi deepfake siano per l'appunto fake). Attualmente sono disponibili sistemi che consentono di falsificare anche la voce di una persona o di creare un deepfake usando anche una sola foto! (i deepfake classici necessitano di decine o centinaia di foto) Nascondere queste realtà al mondo non serve a nulla...anzi se nessuno ne conosce l'esistenza corriamo grandi rischi tutti (alla fine forse è meglio sapere che chiunque può essere denudato da un IA piuttosto che non insospettirsi quando vediamo qualcuno fare o dire cose insolite in un video fake) Magari un giorno avremo anche la possibilità di modificare altri aspetti dei video oltre alle facce.. (che sono forse la cosa più complicata) e così una busta della spesa può diventare una bomba!
Per phicamaster: non capisco perchè non hai rimosso subito le foto che ti hanno segnalato...in effetti su questo le Iene hanno ragione, ci vorrebbe una sorveglianza migliore qui.
Credo di aver finito...