Megtévesztő valóság: Az emberek nagy része nem képes felismerni a gépi generált videókat

AI videó

Az emberek nagy része képtelen kiszúrni a mesterséges intelligenciával generált videókat, ami komoly aggodalomra ad okot a digitális tartalom terén.

A technológiai fejlődés újabb mérföldkövének számító ChatGPT és a DALL-E által hajtott OpenAI legújabb lépése, a Sora, már most is azt mutatja, hogy a gépi generált tartalmak milyen élethűek tudnak lenni. Habár az OpenAI óvatosan teszteli ezt a technológiát, a Sora kiváltotta az aggodalmakat az esetleges visszaélések miatt.

Egy friss kutatás, melyben 1000 felnőtt vett részt, rámutatott, hogy az emberek képtelenek megkülönböztetni a valódi és a mesterséges intelligenciával generált videókat. A felmérés során a megkérdezettek durván fele tévesztett az AI által készített felvételek esetében, ami komoly kihívást jelent a tartalomfogyasztók számára.

Az eredmények azt mutatják, hogy még a legapróbb jeleket sem sikerült kiszúrniuk a generált tartalmaknak, és sokan tévesen azt hitték, hogy azok valódiak. Ez különösen aggasztó, figyelembe véve a digitális dezinformáció és az álhírek terjedését, valamint a deepfake technológiák potenciális visszaéléseit.

Az OpenAI azon dolgozik, hogy fejlesszen egy olyan eszközt, amely felismeri a Sora által generált videókat, de a közelmúltban napvilágra került esetek azt mutatják, hogy az emberek többsége még mindig sebezhető a digitális manipulációkra.

Ezért további kutatásra és fejlesztésekre van szükség annak érdekében, hogy a digitális tartalom hamisításának és visszaéléseinek terjedését hatékonyan meg lehessen állítani.