China implementa una de las leyes más estrictas del mundo contra los 'deepfakes'

Chi­na endu­re­ce las medi­das en con­tra de los deep­fa­kes e imple­men­ta una de las pri­me­ras regu­la­cio­nes de su tipo sobre este peli­gro. Ade­más, aumen­ta el con­trol del país sobre el con­te­ni­do de inter­net.

Los deep­fa­kes son herra­mien­tas que uti­li­zan la inte­li­gen­cia arti­fi­cial para crear o mani­pu­lar imá­ge­nes o vídeos alte­ra­dos o gene­ra­dos sin­té­ti­ca­men­te. Por ejem­plo, se pue­de crear un dis­cur­so fal­so de algún pre­si­den­te de gobierno o hacer publi­ci­dad sin uti­li­zar acto­res reales.

  • La nue­va ley para regu­lar los deep­fa­kes y fre­nar la des­in­for­ma­ción

Pro­vi­sions on the Admi­nis­tra­tion of Deep Synthe­sis of Inter­net Infor­ma­tion Ser­vi­ces es es el nom­bre de la nue­va legis­la­ción, crea­da para pro­te­ger a las per­so­nas de la suplan­ta­ción digi­tal de su voz o su ima­gen sin con­sen­ti­mien­to. Entra en vigor este 10 de enero de 2023.

Una de sus regu­la­cio­nes es que los usua­rios debe­rán dar su con­sen­ti­mien­to para que su ima­gen se uti­li­ce en cual­quier tec­no­lo­gía. Ade­más, estos ser­vi­cios no pue­den hacer uso de esta herra­mien­ta para difun­dir noti­cias fal­sas.

«Se requie­re que los pro­vee­do­res de ser­vi­cios de deep­fa­kes y los asis­ten­tes téc­ni­cos for­ta­lez­can la ges­tión de datos de capa­ci­ta­ción y la ges­tión téc­ni­ca. Ade­más de que garan­ti­cen la segu­ri­dad de los datos, prohí­ban el pro­ce­sa­mien­to ile­gal de infor­ma­ción per­so­nal. Que revi­sen, eva­lúen y veri­fi­quen perió­di­ca­men­te los meca­nis­mos de algo­rit­mos», men­cio­na el bole­tín.

Por otra par­te, los ser­vi­cios de Deep­fa­ke nece­si­tan auten­ti­car la iden­ti­dad real de los usua­rios. El con­te­ni­do modi­fi­ca­do debe­rá tener algu­na eti­que­ta o avi­so de que ha sido alte­ra­do median­te esta herra­mien­ta. «Los ser­vi­cios que brin­dan fun­cio­nes como diá­lo­go inte­li­gen­te, voz huma­na sin­te­ti­za­da, gene­ra­ción de ros­tros huma­nos y esce­nas rea­lis­tas inmer­si­vas que gene­ran o cam­bian sig­ni­fi­ca­ti­va­men­te el con­te­ni­do de la infor­ma­ción, se mar­ca­rán de mane­ra des­ta­ca­da para evi­tar la con­fu­sión públi­ca o la iden­ti­fi­ca­ción erró­nea».

Los exper­tos en este tipo de tec­no­lo­gía ase­gu­ran que la ley abor­da dos obje­ti­vos: una cen­su­ra en línea más estric­ta, y ade­lan­tar­se a la regu­la­ción en torno a las nue­vas tec­no­lo­gías.

Ken­dra Schae­fer, socia con sede en Bei­jing de la con­sul­to­ra Tri­vium Chi­na, seña­ló a CNBC que «lo intere­san­te es que Chi­na está apun­tan­do a una de las ame­na­zas crí­ti­cas para nues­tra socie­dad en la era moder­na: la ero­sión de la con­fian­za en lo que vemos y escu­cha­mos, y la cre­cien­te difi­cul­tad de sepa­rar la ver­dad de las men­ti­ras».

Henry Ajder, ase­sor en IA gene­ra­ti­va, ase­gu­ra que tener la res­pon­sa­bi­li­dad, ya sea como usua­rio final o como pla­ta­for­ma, de eti­que­tar con­te­ni­do fal­so, pro­ba­ble­men­te sea algo en lo que ten­ga­mos que empe­zar a con­fiar.

  • Chi­na abor­da la par­te nega­ti­va pero ¿y la posi­ti­va?

Esto tie­ne su par­te posi­ti­va y nega­ti­va. En la par­te posi­ti­va, por ejem­plo, encon­tra­mos MyHe­ri­ta­ge. Esta herra­mien­ta per­mi­te «dar voz» a los fami­lia­res de fotos anti­guas para ani­mar los ros­tros de las foto­gra­fías con expre­sio­nes o movi­mien­tos que pare­cen rea­lis­tas.

La par­te nega­ti­va es que los vídeos y las imá­ge­nes son muy rea­lis­tas, lo que pue­de lle­var a des­in­for­ma­ción, con­fu­sio­nes, esta­fas y frau­des. Cual­quie­ra que ten­ga un orde­na­dor y acce­so a inter­net pue­de crear un deep­fa­ke.

Por ejem­plo, hace un mes apa­re­ció un deep­fa­ke del actor Mor­gan Free­man don­de pode­mos ver «al actor» hablan­do. Su voz, su cara, todo nos hace pen­sar que es el real has­ta que nos demues­tran lo con­tra­rio.

Chi­na no es la úni­ca que se plan­teó crear nue­vas regu­la­cio­nes de los deep­fa­kes. Tan­to los gobier­nos de Rei­no Uni­do, Tai­wán y de EE.UU. anun­cian su inten­ción de prohi­bir la crea­ción de vídeos por­no­grá­fi­cos crea­dos con esta herra­mien­ta.