Come guardarsi allo specchio e non riconoscersi. Così si può riassumere il risultato della ricerca di Newsguard che ha dimostrato come alcuni dei chatbot più usati non siano in grado di identificare video creati con l’intelligenza artificiale. Grok, Gemini e ChatGpt sono stati messi alla prova con video generati da Sora. I ricercatori hanno provveduto solo a rimuovere il logo del software dai contenuti multimediali: è bastato questo per ingannare le macchine.
![]()
Il test – A fare scalpore non è solo la confusione creata nei chatbot, ma anche l’elevato tasso di errore di ChatGpt. Il large language model è proprietà di OpenAi, proprio come lo è Sora. Ecco perchè risulta particolare come nel 92.5% dei casi non sia riuscito a riconoscere un video creato dalla piattaforma della sua stessa compagnia. Per quanto riguarda i colleghi digitali, va meglio a Gemini che è stato indotto in errore nel 78% dei casi. Peggio invece Grok che ha registrato un tasso del 95%. Menzione d’onore per Gemini. Sebbene con Sora abbia avuto difficoltà, in un secondo test con immagini e video generati da Nano Banana Pro (sviluppato da Google, proprio come il chatbot) è riuscito a destreggiarsi in modo ottimale e non è caduto nel tranello.
La controprova – Provando a dare una mano ai chatbot i risultati sono stati migliori ma non ottimi. I ricercatori hanno dato in pasto ai tre cervelli artificiali gli stessi video del primo test, prodotti sempre da Sora, lasciando però il watermark (il logo della compagnia). In questa nuova sessione di test ChatGpt solo nel 7,5% dei casi non è stato in grado di identificare i video come falsi, per Grok invece il tasso rimane alto con un 30% dei casi.
Sora – Non è la prima volta che si parla di Sora e delle sue abilità nel creare video così realistici da passare per veri. In passato, però, era successo solo con gli umani. La qualità dei video era tale da poter generare qualsiasi situazione con persone reali. Divennero virali le riprese che vedevano Sam Altman, Ceo di OpenAi, alle prese con la legge. Furto di Iphone o di processori, multe per eccesso di velocità, tutte situazione fittizie create dall’Ai, ma che a occhio inesperto potevano sembrare vere. Con il passare del tempo il software ha raggiunto un livello tale da poter passare inosservato anche ai suoi stessi simili.




