di F.B.
Le piattaforme di compravendita di beni di seconda mano, come Vinted e Depop, hanno registrato una crescita del 65% tra il 2020 e il 2023, secondo un rapporto di Statista, con milioni di utenti attivi mensilmente in tutta Europa e Nord America., hanno registrato una crescita esponenziale negli ultimi anni, offrendo agli utenti la possibilità di acquistare e vendere articoli in modo rapido ed economico. Tuttavia, questa diffusione ha portato con sé nuove sfide in termini di sicurezza informatica e protezione degli utenti da abusi e molestie digitali. L’anonimato relativo, l’interazione diretta tra venditori e acquirenti e la mancanza di verifiche rigorose rappresentano fattori di rischio per fenomeni quali molestie sessuali, truffe, doxing e sfruttamento di minori.
1. La violenza digitale nelle piattaforme second-hand
Studi recenti, tra cui ricerche condotte dall’Oxford Internet Institute (2024) e dal Tech Transparency Project (2023), evidenziano un aumento dei casi di violenza di genere digitale e di molestie online su piattaforme come Vinted e Depop. In particolare, la natura visiva e interattiva di questi spazi digitali ha facilitato l’emergere di nuovi fenomeni di abuso, tra cui:
- Molestie sessuali digitali: venditrici ricevono richieste inappropriate da parte di acquirenti, che spesso insistono per ottenere immagini di capi d’abbigliamento indossati con lo scopo di soddisfare desideri voyeuristici (image-based sexual harassment).
- Furto di immagini e deepfake: le fotografie caricate per scopi di vendita vengono rubate, modificate con strumenti di deepfake AI e diffuse in contesti non consensuali, spesso con contenuti sessuali.
- Sextortion e adescamento: alcuni utenti sfruttano l’apparente informalità della piattaforma per avvicinare adolescenti, spingendoli a condividere informazioni personali o immagini private, che successivamente vengono usate per ricatti o sfruttamento.
- Doxing e stalking: informazioni sensibili, come il nome, l’indirizzo di spedizione e il numero di telefono, possono essere utilizzate per scopi intimidatori o persecutori.
- Truffe e schemi fraudolenti: alcuni acquirenti falsificano pagamenti o simulano problemi con le spedizioni per ingannare i venditori.
Secondo un’inchiesta pubblicata su The Guardian, basata su un’analisi di migliaia di segnalazioni effettuate dagli utenti e su interviste con esperti di sicurezza digitale, molte donne denunciano che la moderazione delle piattaforme non è sempre tempestiva ed efficace, lasciando spazio a comportamenti abusivi e tossici., molte donne denunciano che la moderazione delle piattaforme non è sempre tempestiva ed efficace, lasciando spazio a comportamenti abusivi e tossici.
2. Misure di sicurezza e risposta delle piattaforme
Le aziende che gestiscono marketplace digitali hanno implementato diverse strategie per ridurre i rischi associati a queste forme di violenza. Tra le misure adottate troviamo:
- Strumenti di segnalazione e blocco: gli utenti possono segnalare comportamenti scorretti e bloccare profili sospetti. Tuttavia, secondo una ricerca di Tech Transparency Project, le segnalazioni spesso non ricevono risposte tempestive e molti account abusivi rimangono attivi.
- Moderazione automatizzata e AI: algoritmi di rilevamento analizzano messaggi e immagini per identificare contenuti potenzialmente pericolosi. Tuttavia, questi strumenti hanno limiti significativi, in particolare nella gestione delle comunicazioni private.
- Policy di verifica degli utenti: alcune piattaforme, come Depop, hanno introdotto la verifica dell’identità tramite email o numero di telefono, mentre altre non richiedono controlli rigidi, facilitando la creazione di account falsi.
- Educazione e prevenzione: Vinted e altre piattaforme hanno avviato campagne di sensibilizzazione per aiutare gli utenti a riconoscere truffe e proteggersi da molestie digitali. Tuttavia, l’efficacia di queste iniziative è ancora oggetto di studio.
3. Limiti normativi e sfide future
L’attuale panorama normativo presenta lacune significative nella protezione degli utenti sulle piattaforme second-hand. Sebbene la normativa europea sul Digital Services Act (DSA) e il Regolamento Generale sulla Protezione dei Dati (GDPR) impongano obblighi alle aziende in materia di moderazione dei contenuti e protezione della privacy, l’applicazione concreta di queste misure rimane disomogenea.
Uno dei problemi principali riguarda il concetto di responsabilità delle piattaforme. L’Unione Europea, con il Digital Services Act (DSA), ha introdotto normative che impongono obblighi più stringenti per la moderazione dei contenuti, mentre negli Stati Uniti la Sezione 230 del Communications Decency Act limita la responsabilità diretta delle piattaforme per i contenuti generati dagli utenti. Questo approccio divergente crea sfide nella regolamentazione globale, con l’Europa che spinge per un maggiore controllo e gli USA che favoriscono una maggiore libertà di espressione online.: mentre alcuni Paesi spingono per un maggiore coinvolgimento delle aziende nel controllo dei contenuti e nella prevenzione degli abusi, altri adottano un approccio più permissivo che limita le responsabilità dirette delle piattaforme rispetto ai contenuti generati dagli utenti.
Un ulteriore ostacolo è rappresentato dall’elevato numero di account anonimi o falsi, che rende complessa l’identificazione degli autori di molestie o truffe. In risposta a queste criticità, alcune organizzazioni per la sicurezza digitale hanno suggerito l’introduzione di sistemi di verifica obbligatoria per gli account, ispirati alle regolamentazioni adottate da piattaforme finanziarie e di e-commerce.
4. Conclusioni e raccomandazioni
Le piattaforme di second-hand come Vinted e Depop rappresentano un’innovazione nel mercato digitale, ma pongono anche nuove sfide in termini di cybersecurity e tutela degli utenti. Gli abusi e le molestie digitali su questi spazi virtuali richiedono interventi mirati e strategie multidimensionali che coinvolgano non solo le aziende tecnologiche, ma anche legislatori e organizzazioni per la sicurezza informatica.
Per ridurre l’incidenza di questi fenomeni, è fondamentale:
- Migliorare la moderazione e la reattività delle piattaforme nelle segnalazioni di contenuti abusivi.
- Rafforzare i controlli sugli account attraverso strumenti di verifica più stringenti.
- Promuovere la consapevolezza degli utenti, fornendo loro risorse per riconoscere e segnalare abusi.
- Adottare framework normativi più stringenti, che obblighino le piattaforme a una maggiore responsabilità nella protezione degli utenti.
Solo attraverso un impegno coordinato sarà possibile garantire un ambiente digitale più sicuro e inclusivo per tutti. Alcune piattaforme hanno già introdotto misure innovative, come la verifica avanzata degli account tramite documenti d’identità, l’uso di intelligenza artificiale per il rilevamento automatico di contenuti inappropriati e campagne educative rivolte agli utenti per riconoscere e segnalare comportamenti scorretti. L’implementazione diffusa di queste best practice potrebbe contribuire significativamente alla prevenzione degli abusi online.
Fonti
- European Commission. (2023). Digital Services Act: New rules for online platforms. Retrieved from https://ec.europa.eu/digital-services-act
- Tech Transparency Project. (2023). Online Marketplace Safety Report. Retrieved from https://www.techtransparencyproject.org/reports
- The Guardian. (2024). ‘Horrific harassment’: Women report rising abuse on Vinted and Depop. Retrieved from https://www.theguardian.com/technology
- IEEE. (2023). The impact of AI moderation on online abuse prevention. Retrieved from https://www.ieee.org/publications
- Springer. (2023). Doxing, Sextortion and Online Harassment: Emerging Trends on Digital Marketplaces. Retrieved from https://link.springer.com
- Oxford Internet Institute. (2024). AI and the Ethics of Automated Content Moderation on Social Platforms. Retrieved from https://www.oii.ox.ac.uk