Ci sono fenomeni che vengono raccontati come emergenze improvvise, deviazioni isolate, anomalie di un sistema che, in fondo, vorremmo continuare a credere sano. Ma ci sono anche realtà che resistono nel tempo, cambiano forma, si adattano alle tecnologie disponibili e si insinuano nella quotidianità fino a diventare parte del paesaggio. La violenza sessuale digitale in Corea del Sud appartiene a questa seconda categoria. Non è un errore di percorso. È una struttura.
Il termine molka nasce come abbreviazione di mollae-kamera, “telecamera furtiva”, e porta con sé fin dall’origine una doppia natura: quella dello scherzo e quella dello spionaggio. Un’ambiguità che non è solo linguistica, ma culturale. Oggi molka indica sia le microcamere nascoste e installate illegalmente, sia i video e le immagini che da quelle riprese derivano, caricati, archiviati, scambiati e monetizzati online. Non si tratta di episodi marginali. Nel tempo, queste pratiche sono diventate uno dei punti centrali delle proteste femministe e del movimento #MeToo in Corea del Sud, tanto da essere riconosciute come una delle forme più diffuse di crimine sessuale digitale.
La portata del fenomeno è tale che il paese è stato indicato come uno dei contesti in cui l’uso di spycams per crimini sessuali digitali è particolarmente diffuso. E non si parla solo di violazioni evidenti della privacy in spazi intimi, ma anche di una concezione molto più ampia di ciò che può costituire violenza sessuale attraverso l’immagine.
In Corea del Sud, infatti, la soglia di punibilità è più estesa rispetto a molti altri paesi. Riprendere una persona in costume da bagno in un luogo pubblico, o filmare il corpo di una donna completamente vestita per strada senza consenso, può essere considerato un reato, soprattutto quando l’inquadratura insiste sul corpo e lo trasforma in oggetto sessualizzato. È un dettaglio fondamentale, perché rivela quanto il problema non sia solo dove avviene la ripresa, ma come e perché.
Una storia di tecnologia, abitudine e indifferenza
Le prime forme di molka erano legate all’uso dei telefoni cellulari: uomini che filmavano donne sulle scale, nei sottopassaggi, nella metropolitana. Una pratica talmente diffusa da portare all’introduzione obbligatoria del suono dello scatto nelle fotocamere dei telefoni prodotti in Corea del Sud. Con il tempo, però, il fenomeno si è evoluto. Le microcamere fisse hanno iniziato a comparire in bagni pubblici, spogliatoi, uffici, scuole, motel. Già alla fine degli anni Novanta, furono scoperte telecamere installate nel bagno delle donne di un grande magazzino a Sinchon, ufficialmente giustificate come misura di sicurezza. La reazione pubblica fu di indignazione, ma non di sorpresa.
La diffusione degli smartphone, l’accesso rapido a internet e la miniaturizzazione delle tecnologie hanno fatto il resto. Oggi le telecamere possono essere nascoste in asciugacapelli, prese elettriche, rilevatori di fumo. E spesso vengono installate per periodi brevissimi, anche solo quindici minuti, rendendo inefficaci persino le ispezioni quotidiane. Non a caso, molte donne raccontano di controllare personalmente bagni pubblici, coprendo fessure con carta igienica o rompendo dispositivi sospetti con una penna. La paura è diventata una routine.
Quando la tecnologia non è neutra
Le piattaforme digitali non sono semplici contenitori. Sono infrastrutture che modellano i comportamenti. La crittografia garantisce anonimato e continuità. I servizi cloud permettono di archiviare enormi quantità di materiale. I siti pornografici creano categorie che normalizzano e monetizzano immagini non consensuali. Le funzioni di caricamento rapido, la moderazione minima, l’assenza di attriti rendono tutto più semplice.
Nel caso del molka, i file vengono spesso organizzati in cartelle ordinate per età, corporatura, relazione con il perpetratore. I canali funzionano come archivi consultabili, con linguaggi in codice pensati per eludere i controlli. È un ecosistema che si autoalimenta: più il contenuto è invasivo, più aumenta lo status di chi lo produce; più il canale è chiuso, minore è il rischio percepito. La tecnologia non si limita a facilitare l’abuso: lo rende scalabile, redditizio, persistente. Trasforma la sofferenza in contenuto e la vulnerabilità in valuta.
L’ideologia che tiene tutto insieme
Non serve un manifesto per parlare di ideologia. Basta osservare le pratiche. Nel molka, l’atto stesso di filmare di nascosto comunica un messaggio preciso: il corpo femminile è sorvegliabile, appropriabile, punibile. Nei circuiti di ricatto, il linguaggio diventa esplicito: le vittime vengono chiamate “schiave”, l’umiliazione condivisa come intrattenimento.
Si tratta di una radicalizzazione lenta e quotidiana. Si entra come spettatori, si resta come commentatori, si avanza come produttori. Le piattaforme facilitano ruoli, gerarchie, economie informali. Nascono comunità chiuse, con regole proprie, che legittimano il risentimento e celebrano la trasgressione. La misoginia diventa il collante.
E questa logica non si ferma ai confini nazionali. Le stesse architetture sono state replicate altrove. I modelli si esportano facilmente perché sono modulari, adattabili, integrati nella vita digitale di tutti i giorni.
L’era dei deepfake: quando il gioco diventa massa
Negli ultimi anni, a questo scenario si è aggiunta una nuova frontiera: la pornografia creata con tecnologia deepfake. Attraverso l’intelligenza artificiale, è possibile generare immagini e video realistici a partire da una semplice fotografia. In Corea del Sud, è emerso che centinaia di migliaia di utenti, in gran parte adolescenti, partecipavano a gruppi su Telegram dedicati proprio a questo scopo.
Il funzionamento è semplice e inquietante. In alcuni gruppi, un chatbot chiede di caricare la foto di una donna “preferita”. In pochi minuti, l’immagine viene trasformata in contenuto pornografico. In altri gruppi, si condividono link a stanze organizzate per area geografica, scuola, contesto sociale. Esistono persino spazi dedicati a familiari o a donne in specifiche professioni. Infine, ci sono i gruppi in cui il materiale viene diffuso, accompagnato da commenti e umiliazioni.
Secondo chi ha indagato questi ambienti, molti adolescenti non percepiscono ciò che fanno come un crimine. Lo vivono come un gioco, normalizzato da una cultura che sessualizza e oggettifica le donne fin dall’età più giovane. L’accesso facile, l’assenza di barriere e la mancanza di conseguenze rafforzano questa percezione.
Leggi deboli, risposte insufficienti
Dal punto di vista legale, il quadro resta fragile. Esistono norme che puniscono la produzione e la distribuzione di materiale sessuale non consensuale, con pene che possono arrivare a diversi anni di carcere o a multe elevate. Ma nella pratica, la maggior parte delle sanzioni è minima. Le condanne detentive sono rare. E nel caso dei deepfake, la legge richiede di dimostrare l’intento di distribuire il materiale, un ostacolo enorme in fase processuale. Non sorprende che, nonostante l’esplosione del fenomeno, solo pochissimi casi siano arrivati a una condanna.
Le proteste non sono mancate. Decine di migliaia di donne sono scese in piazza con uno slogan diventato simbolo: My life is not your porn. Eppure, dopo Burning Sun, dopo Nth Room, dopo le riforme promesse, i numeri non sono diminuiti. Le task force vengono sciolte, l’urgenza si affievolisce, e il sistema continua a funzionare.
Un fattore strutturale pesa più di altri: le istituzioni incaricate di giudicare e legiferare sono in larga maggioranza maschili. Questo incide sulla percezione della gravità dei reati e sulla volontà di intervenire in modo deciso. La violenza digitale resta spesso trattata come un problema secondario, non come una minaccia sistemica.
Riconoscere l’estremismo quotidiano
Chiamare queste pratiche con il loro nome è il primo passo. Non sono semplici deviazioni morali né incidenti tecnologici. Sono forme di estremismo di genere integrate nelle infrastrutture digitali. Per contrastarle, non basta rimuovere contenuti o arrestare singoli individui. Serve ripensare le piattaforme, introdurre sistemi di prevenzione strutturali, riconoscere che certe funzionalità non sono neutre.
La Corea del Sud mostra sia quanto sia possibile intervenire, sia quanto sia facile fallire se ci si limita a risposte frammentarie. La violenza è ovunque e contemporaneamente. La risposta deve essere altrettanto integrata, globale, consapevole della dimensione ideologica del problema. Gli strumenti esistono. Resta da capire se esiste la volontà di usarli davvero.
