Negli ultimi mesi, un caso curioso – e inquietante – ha sollevato domande sulla sicurezza delle transazioni online e sull’uso dell’intelligenza artificiale per creare prove false.
La storia
Un’accademica londinese aveva prenotato su Airbnb un appartamento a Manhattan per due mesi e mezzo, dove avrebbe soggiornato mentre studiava. Dopo sette settimane, però, decide di lasciare l’alloggio prima del previsto: non si sentiva sicura nella zona.
Poco dopo la partenza, l’host la accusa di aver causato danni per oltre 12.000 sterline. Tra le prove, invia foto di un tavolino rotto e denuncia anche un materasso macchiato, un robot aspirapolvere e diversi elettrodomestici danneggiati.
La donna nega tutto, sostenendo di aver lasciato l’appartamento in ordine e con soli due ospiti in tutto il periodo. Analizzando le foto, nota dettagli incoerenti: le immagini del tavolino mostrano danni diversi, come se fossero state manipolate digitalmente o create con l’IA.
La prima risposta di Airbnb
Airbnb, dopo “un’attenta revisione delle foto”, decide inizialmente che la donna dovrà rimborsare all’host oltre 5.300 sterline. Lei presenta ricorso, offrendo anche la testimonianza di un amico presente al check-out.
Secondo la donna, le prove erano chiaramente false e avrebbero dovuto essere scartate subito. Ma Airbnb, a suo dire, ha ignorato le incongruenze.
Il ribaltamento
Cinque giorni dopo che The Guardian contatta l’azienda, la situazione cambia: prima un accredito di 500 sterline, poi un’offerta di rimborso parziale di 854 sterline, che la donna rifiuta. Alla fine ottiene il rimborso totale di 4.269 sterline e la rimozione della recensione negativa lasciata dall’host.
L’host, un “superhost” (categoria di Airbnb per gli host più esperti e con ottime valutazioni), riceve un’ammonizione e l’avvertimento che una seconda segnalazione simile comporterà la rimozione dal portale.
Il problema più grande
Per la protagonista della vicenda, la questione va oltre il suo caso personale:
“È troppo facile creare immagini false con l’IA e usarle come prove. Chi non ha i mezzi per difendersi rischia di dover pagare per paura di conseguenze peggiori.”
Esperti di sicurezza, come Serpil Hall di Baringa, confermano: manipolare foto e video oggi è facilissimo e i software necessari costano poco, sono ovunque e non richiedono grandi competenze. Alcune compagnie assicurative, di fronte all’aumento di reclami falsi, hanno già deciso di usare strumenti forensi per verificare le immagini.
Una lezione per tutti
Questo caso dimostra come le piattaforme debbano attrezzarsi per distinguere prove autentiche da quelle false, soprattutto ora che l’intelligenza artificiale rende la contraffazione alla portata di chiunque.
Fonte: The Guardian


