(Adnkronos) – L’FBI ha diffuso su X due fotografie sfocate di una persona di interesse nell’indagine sulla sparatoria che ha coinvolto Charlie Kirk. Nel giro di pochi minuti, gli utenti della piattaforma hanno iniziato a pubblicare versioni “upscalate” con strumenti di intelligenza artificiale, trasformando le immagini pixelate in ritratti apparentemente nitidi e definiti. Alcuni sono stati generati dal bot Grok integrato in X, altri da servizi esterni come ChatGPT. Le nuove immagini hanno suscitato curiosità e reazioni immediate: alcune risultano verosimili, altre decisamente fuori luogo, come un volto con mento sproporzionato o abiti completamente diversi rispetto all’originale. In teoria dovrebbero aiutare a identificare il sospettato, ma nella pratica diventano più che altro contenuti virali capaci di attrarre like e condivisioni. Il problema è che le foto “ricostruite” dall’IA non sono prove: gli algoritmi non svelano dettagli nascosti, bensì li ipotizzano. La tecnologia si basa sull’inferenza e sul riempimento delle parti mancanti, e questo può portare a risultati ingannevoli. In passato, simili tentativi hanno trasformato un’immagine a bassa risoluzione dell’ex presidente Barack Obama in un uomo bianco, o aggiunto a Donald Trump un rigonfiamento mai esistito sulla testa. Il rischio, dunque, è che la ricerca di precisione si trasformi in disinformazione. Se da un lato questi strumenti possono avere applicazioni utili in ambiti come il restauro fotografico o la creatività digitale, dall’altro non dovrebbero mai essere considerati fonti affidabili in contesti delicati come un’indagine federale. —tecnologiawebinfo@adnkronos.com (Web Info)
Caso Kirk, le foto dell’FBI “migliorate” dall’IA e la disinformazione da social
© Riproduzione riservata