Olocausto e intelligenza artificiale: quando le immagini generate dall’AI trasformano la memoria in “passato generico”
Nel dibattito contemporaneo sulla memoria dell’Olocausto, sta emergendo una minaccia nuova e subdola: le immagini generate dall’intelligenza artificiale che ricreano, in modo fotorealistico ma falso, scene di lager nazisti e campi di concentramento. Una foto virale apparsa sui social mostra, ad esempio, un’infermiera che porta in braccio una bambina sorridente, circondata da altre donne fra recinzioni di filo spinato, con un bianco e nero perfetto e una composizione impeccabile. Tutto richiama l’immaginario dei campi, ma quella scena non è mai avvenuta: è una costruzione sintetica, che gioca sui simboli visivi dell’Olocausto per produrre un “ricordo” che non esiste.

Il problema non è solo estetico, ma profondamente storico e politico. Da decenni, la memoria dell’Olocausto si fonda anche su un numero limitato ma potentissimo di immagini autentiche: le foto dell’Album di Auschwitz, gli scatti dei liberatori sovietici, i filmati girati nei campi subito dopo la liberazione. Ogni foto ha un contesto preciso: chi l’ha scattata, dove, quando, con quale intento. Proprio per questo la fotografia è stata percepita come prova documentaria, un “testimone muto” capace di confermare la realtà dei crimini nazisti. L’irruzione delle immagini generate da AI rischia di confondere questo confine, mescolando documenti autentici e finzioni estremamente credibili.
Il caso dell’infermiera polacca di Ravensbrück, citato nell’articolo, è emblematico: la narrazione che accompagna l’immagine parla di una vera prigioniera costretta a una marcia della morte, ma quasi nessuna informazione è verificabile e le poche foto storiche del campo non assomigliano minimamente a quella scena. La qualità iper-realistica, la composizione “troppo perfetta” e la ripetizione degli stessi cliché visivi fanno pensare a un prodotto di intelligenza artificiale generativa, non a un documento d’epoca. Così il rischio è doppio: da un lato si creano storie false che sfruttano nomi e luoghi reali; dall’altro si banalizza l’orrore, trasformandolo in immagine “pulita” e consumabile sui social.
Le istituzioni della memoria sull’Olocausto hanno già lanciato l’allarme. Il portavoce del Museo di Auschwitz, Pawel Sawicki, ha definito questi contenuti “fake history”, avvertendo che le immagini AI possono distorcere profondamente la percezione dei campi perché molti utenti continuano a considerare la fotografia come prova di qualcosa realmente accaduto. Secondo alcune stime, fino al 40% dei contenuti diffusi su Facebook sarebbe generato dall’intelligenza artificiale, ma solo una minima parte viene etichettata chiaramente come tale. Ciò significa che molte persone si imbattono in immagini sull’Olocausto senza avere gli strumenti per distinguere tra documentazione e finzione.
Per questo motivo, più di 30 memoriali, fondazioni e istituzioni tedesche hanno firmato una lettera aperta in vista del Giorno della Memoria, chiedendo alle piattaforme digitali di intervenire con decisione. Fra le richieste: obbligo di etichettare in modo chiaro le immagini generate da AI, possibilità di rimuovere contenuti manipolati e strumenti più efficaci per segnalare i falsi visivi legati all’Olocausto. Secondo gli esperti, questo tipo di disinformazione indebolisce il lavoro educativo dei memoriali, perché sostituisce l’apprendimento critico con un’emotività immediata, alimentata da immagini “perfette” ma fittizie.
Allo stesso tempo, il dibattito sull’uso dell’AI nell’ambito dell’Olocausto è più complesso: accanto alla generative AI, esiste infatti quella analitica, che può aiutare storici e archivi a comprendere meglio le fonti autentiche. Progetti congiunti europei e iniziative di ricerca, come “Visual History of the Holocaust”, utilizzano strumenti di intelligenza artificiale per identificare luoghi, persone e angolazioni di ripresa, ricostruendo il contesto originario di foto e filmati reali. Lo storico Jürgen Matthäus, ad esempio, ha combinato analisi AI e indagini d’archivio per chiarire le origini della celebre foto “L’ultimo ebreo di Vinnitsa”, determinando luogo e data esatta dell’esecuzione.
La differenza, come sottolineano studiosi dei media, sta nel metodo: l’AI analitica lavora sui dati per collegare e chiarire ciò che già esiste; l’AI generativa, invece, sintetizza materiale preesistente creando immagini “nuove” che non corrispondono a eventi reali. Il risultato è quella che alcuni definiscono una “passato generico”: immagini che sembrano storiche ma in realtà amplificano cliché visivi, senza le imperfezioni, la casualità o persino la prospettiva dei carnefici che caratterizza molte foto originali dell’Olocausto.
Di fronte a questa “contaminazione visiva”, cresce il timore che gli archivi stessi possano essere confusi da un flusso continuo di immagini sintetiche, fino al punto in cui i falsi entrano nel patrimonio visivo condiviso. In un contesto in cui molti giovani incontrano per la prima volta la storia dell’Olocausto su Instagram, TikTok o Facebook, la distinzione fra autentico e artificiale diventa cruciale per contrastare negazionismo, banalizzazione e manipolazione. La responsabilità, ricorda l’articolo, non è solo delle piattaforme, ma anche degli utenti: ogni volta che condividiamo un’immagine sull’Olocausto dovremmo chiederci quanto sia verificabile e, se necessario, esplicitare che si tratta di una scena creata dall’AI.
In ultima analisi, le immagini generate dall’intelligenza artificiale sull’Olocausto non “creano memoria”, ma rischiano di eroderla, sostituendo il confronto con la realtà storica con una serie di icone emotive, rassicuranti e perfettamente aderenti alle nostre aspettative. Difendere la verità storica significa oggi anche sviluppare alfabetizzazione digitale e competenze critiche sull’uso dell’AI, affinché la memoria delle vittime resti ancorata a testimonianze autentiche e a una ricerca rigorosa, non a una galleria di immagini costruite da algoritmi.

