Skip to content Skip to sidebar Skip to footer

Airbnb sotto accusa: quando l’IA diventa un’arma per falsificare prove

Negli ultimi mesi, un caso curioso – e inquietante – ha sollevato domande sulla sicurezza delle transazioni online e sull’uso dell’intelligenza artificiale per creare prove false.

La storia

Un’accademica londinese aveva prenotato su Airbnb un appartamento a Manhattan per due mesi e mezzo, dove avrebbe soggiornato mentre studiava. Dopo sette settimane, però, decide di lasciare l’alloggio prima del previsto: non si sentiva sicura nella zona.

Poco dopo la partenza, l’host la accusa di aver causato danni per oltre 12.000 sterline. Tra le prove, invia foto di un tavolino rotto e denuncia anche un materasso macchiato, un robot aspirapolvere e diversi elettrodomestici danneggiati.

La donna nega tutto, sostenendo di aver lasciato l’appartamento in ordine e con soli due ospiti in tutto il periodo. Analizzando le foto, nota dettagli incoerenti: le immagini del tavolino mostrano danni diversi, come se fossero state manipolate digitalmente o create con l’IA.

La prima risposta di Airbnb

Airbnb, dopo “un’attenta revisione delle foto”, decide inizialmente che la donna dovrà rimborsare all’host oltre 5.300 sterline. Lei presenta ricorso, offrendo anche la testimonianza di un amico presente al check-out.

Secondo la donna, le prove erano chiaramente false e avrebbero dovuto essere scartate subito. Ma Airbnb, a suo dire, ha ignorato le incongruenze.

Il ribaltamento

Cinque giorni dopo che The Guardian contatta l’azienda, la situazione cambia: prima un accredito di 500 sterline, poi un’offerta di rimborso parziale di 854 sterline, che la donna rifiuta. Alla fine ottiene il rimborso totale di 4.269 sterline e la rimozione della recensione negativa lasciata dall’host.

L’host, un “superhost” (categoria di Airbnb per gli host più esperti e con ottime valutazioni), riceve un’ammonizione e l’avvertimento che una seconda segnalazione simile comporterà la rimozione dal portale.

Il problema più grande

Per la protagonista della vicenda, la questione va oltre il suo caso personale:

“È troppo facile creare immagini false con l’IA e usarle come prove. Chi non ha i mezzi per difendersi rischia di dover pagare per paura di conseguenze peggiori.”

Esperti di sicurezza, come Serpil Hall di Baringa, confermano: manipolare foto e video oggi è facilissimo e i software necessari costano poco, sono ovunque e non richiedono grandi competenze. Alcune compagnie assicurative, di fronte all’aumento di reclami falsi, hanno già deciso di usare strumenti forensi per verificare le immagini.

Una lezione per tutti

Questo caso dimostra come le piattaforme debbano attrezzarsi per distinguere prove autentiche da quelle false, soprattutto ora che l’intelligenza artificiale rende la contraffazione alla portata di chiunque.

Fonte: The Guardian

Non perderti nessun aggiornamento iscrivendoti ai nostri canali.
5 2 voti
Article Rating
Iscriviti
Notificami
guest

0 Commenti
Vecchi
Più recenti Le più votate
Feedback in linea
Visualizza tutti i commenti
Go to Top
0
Esprimete la vostra opinione commentando.x