Lloguer de places de pàrking, trasters i garatges tancats

Home MAGAZINE SOCIETAT Els ‘deepfakes’ com a arma de desinformació i propaganda en temps de guerra
Els ‘deepfakes’ com a arma de desinformació i propaganda en temps de guerra
0

Els ‘deepfakes’ com a arma de desinformació i propaganda en temps de guerra

Els ‘deepfakes’ són vídeos falsos creats amb intel·ligència artificial d’aprenentatge profund que mostren a persones dient o fent coses que no van succeir en la vida real. / John Noonan, Unsplash

Un vídeo ultrafals del president rus Vladimir Putin anunciant la pau amb Ucraïna i distribuït en Twitter –ara X– és un dels més de 1.200 tuits analitzats per investigadors de la Universitat de Cork (Irlanda). El seu objectiu és avaluar l’impacte que poden tenir aquests continguts manipulats durant els conflictes bèl·lics.

Els deepfakes (ultrafalsos, en espanyol) són vídeos manipulats extremadament realistes creats mitjançant tècniques d’intel·ligència artificial (IA) d’aprenentatge profund. En ells, es mostra a persones dient i fent coses que mai van ocórrer en la vida real.

Investigadors de la universitat irlandesa de Cork (UCC) han analitzat prop de 5.000 tuits durant l’actual guerra entre Rússia i Ucraïna. L’objectiu és, segons els autors, avaluar l’impacte d’aquests continguts com a instruments de desinformació i propaganda en temps de guerra. Els resultats es publiquen en la revista PLOS ONE.

Els ‘deepfakes‘ permeten a la gent apropiar-se de la identitat altres persones. Quan aquesta manipulació s’aplica a líders mundials implicats en conflictes, poden ser especialment perjudicials. John Twomey, líder de la recerca (Universitat de Cork)

Per a entendre millor el mal que poden ocasionar els vídeos ultrafalsos, l’equip va analitzar els debats en Twitter sobre deepfakes relacionats amb la invasió russa. Els investigadors van utilitzar un enfocament qualitatiu conegut com a anàlisi temàtica per a identificar i comprendre patrons en les discussions, que incloïen un total de 5.000 tuits, distribuïts en els primers set mesos de 2022 en la xarxa que Elon Musk ha rebatejat com a X.

Segons comenta a SINC John Twomey, investigador de la Facultat de Psicologia Aplicada de la UCC i líder del treball, “els avanços en IA permeten produir aquest tipus de vídeos de manera més ràpida que abans. Els deepfakes resulten especialment nocius perquè permeten a la gent apropiar-se de la identitat de figures públiques”.

Dels 5.000 tuits extrets, els autors van excloure el contingut ‘spam‘, per la qual cosa al final van analitzar 1.231 tuits que van ser sotmesos a un examen temàtic

A més, Twomey assenyala que, encara que aquesta pràctica “pot utilitzar-se per a entreteniment, el més habitual és que s’usi per a la difamació i l’abús. Quan aquestes persones públiques estan implicades en un conflicte, això pot ser especialment perjudicial”.

Anuncis falsos de pau i rendició

En el treball, dels 5.000 tuits extrets, els autors van excloure el contingut spam, per la qual cosa al final van analitzar 1.231 tuits que van ser sotmesos a un examen temàtic. “Això implica la codificació qualitativa de temes”, apunta l’investigador. “El que fem és etiquetar manualment els punts rellevants de cada tuit, els ajuntem i organitzem en temes comuns que destacaven punts rellevants i crítics sobre el conjunt de dades”, explica.

Alguns tuits van passar per alt els possibles perjudicis o van tenir reaccions positives davant els deepfakes dirigits contra rivals polítics, especialment els creats com a sàtira o entreteniment.

La guerra rus-ucraïnesa ha estat el primer exemple real d’ús de vídeos ultrafalsos en conflictes bèl·lics

Twomey indica que la guerra rus-ucraïnesa ha estat el primer exemple real d’ús de vídeos ultrafalsos en conflictes bèl·lics. Entre altres exemples, esmenta el vídeo que mostrava a Putin anunciant la pau amb Ucraïna o el pirateig d’un lloc web de notícies ucraïnès per a mostrar el missatge deepfake de rendició del president ucraïnès.

L’estudi va trobar tuits que advertien de la necessitat de preparar-se per a un major ús d’aquesta mena de vídeos, parlaven de com detectar-los o destacaven el paper dels mitjans de comunicació i els governs per a rebatre’ls.

Altres tuits, no obstant això, suggerien que els deepfakes havien minat la confiança dels usuaris fins al punt que ja no es fiaven de cap gravació de la invasió.

Promoció de teories conspirativas

Hi havia també tuits que relacionaven aquests continguts amb l’aparent creença dels usuaris en teories conspirativas, com que els deepfakes de líders mundials s’utilitzaven com a tapadora quan en realitat estaven amagats, o que tota la invasió era falsa, propaganda antirussa.

L’anàlisi indica que els esforços per a educar al públic sobre els deepfakes poden soscavar involuntàriament la confiança en els vídeos reals. Els autors assenyalen que les seves troballes i futures recerques podrien contribuir a mitigar els efectes nocius d’aquests vídeos ultramanipulados.

Alguns tuits suggerien que després de veure els ‘deepfakes‘ de la guerra de Rússia i Ucraïna ja no es fiaven de cap gravació de la invasió

Gran part de la recerca prèvia sobre deepfakes s’havia enfocat en els possibles danys futurs de la tecnologia. “No obstant això, nosaltres ens hem centrat en la forma en la qual estan ja afectant les xarxes socials, com hem vist durant la invasió russa d’Ucraïna”, diuen els autors.

L’estudi posa en relleu com aquest tipus de vídeos estan soscavant la fe en els mitjans de comunicació reals i s’estan utilitzant per a evidenciar teories conspirativas

Amb aquest treball “volíem veure com és la desinformació sobre deepfakes en la pràctica i com està afectant ja els espais en línia. Constatem que a la gent li costa trobar un escepticisme sa, ser conscient que aquests vídeos ultrafalsos existeixen, però no acusar la informació real de ser deepfakes sense proves fefaents”, conclou John Twomey.

Font: SINC

(21)

guiaderoses

Us de cookies

Aquest lloc web fa servir cookies. Si continúa navegant esta donant el seu consentiment per a l'acceptació de les esmentades cookies i l'acceptació de la nostra política de cookies

ACEPTAR
Aviso de cookies