El informe de Surfshark revela la escala masiva del fraude en las plataformas digitales

El informe de Surfshark revela la escala masiva del fraude en las plataformas digitales
En un eco­sis­te­ma digi­tal satu­ra­do por la auto­ma­ti­za­ción, la lucha por la auten­ti­ci­dad ha alcan­za­do dimen­sio­nes sin pre­ce­den­tes. Un recien­te aná­li­sis rea­li­za­do por la fir­ma de ciber­se­gu­ri­dad Surfshark, basa­do en los infor­mes de trans­pa­ren­cia públi­cos anua­les de las prin­ci­pa­les pla­ta­for­mas, ha saca­do a la luz una cifra que estre­me­ce los cimien­tos del sec­tor: las redes socia­les más influ­yen­tes del mun­do eli­mi­nan colec­ti­va­men­te más de 6.300 millo­nes de cuen­tas fal­sas cada año.

Este fenó­meno no se limi­ta úni­ca­men­te a la crea­ción de per­fi­les fic­ti­cios. Según los datos reco­pi­la­dos, pla­ta­for­mas como Face­book, Tik­Tok, X (antes Twit­ter) y Lin­ke­dIn, jun­to con gigan­tes del vídeo y la ima­gen como You­Tu­be e Ins­ta­gram, eli­mi­nan anual­men­te la volu­mé­tri­ca can­ti­dad de 11.100 millo­nes de pie­zas de con­te­ni­do basu­ra o spam. La esca­la de esta “lim­pie­za pro­fun­da” pone de mani­fies­to una reali­dad incó­mo­da: mien­tras los agen­tes de Inte­li­gen­cia Arti­fi­cial (IA) apren­den a inter­ac­tuar entre sí, los bots que se hacen pasar por seres huma­nos con­ti­núan inun­dan­do el espa­cio digi­tal, desa­fian­do la capa­ci­dad de mode­ra­ción de las empre­sas tec­no­ló­gi­cas.

La IA es tam­bién un motor de la fal­si­fi­ca­ción

El papel de la IA gene­ra­ti­va ha sido fun­da­men­tal en este cre­ci­mien­to expo­nen­cial del rui­do digi­tal. La faci­li­dad con la que hoy se pue­den pro­du­cir per­fi­les rea­lis­tas y ges­tio­nar inter­ac­cio­nes masi­vas ha cam­bia­do las reglas del jue­go. Jus­tas Pukys, geren­te senior de Pro­duc­to en Surfshark, advier­te sobre esta evo­lu­ción téc­ni­ca: “Estoy con­ven­ci­do de que la mayo­ría de las cuen­tas fal­sas en las redes socia­les son bots. Espe­cial­men­te con la evo­lu­ción de la IA, pro­du­cir y admi­nis­trar bots se vuel­ve más fácil. En algu­nas pla­ta­for­mas, la IA pue­de cubrir com­ple­ta­men­te las nece­si­da­des de ‘fal­si­fi­ca­ción’. En con­tras­te, en otras no es tan sim­ple, como por ejem­plo Face­book, don­de se requie­re inter­ac­ción con per­so­nas reales y res­pues­ta al con­tex­to”.

Esta sofis­ti­ca­ción obli­ga a las pla­ta­for­mas a imple­men­tar fil­tros cada vez más finos y agre­si­vos. Sin embar­go, en muchos casos, el núme­ro de cuen­tas eli­mi­na­das supera la base de usua­rios reales. Face­book, por ejem­plo, cuen­ta con unos 3.000 millo­nes de usua­rios acti­vos, pero eli­mi­na 4.500 millo­nes de cuen­tas fal­sas al año, lo que repre­sen­ta 1,5 veces su pobla­ción real. Un esce­na­rio simi­lar se vive en X, don­de se repor­tan 671 millo­nes de eli­mi­na­cio­nes anua­les, cifra que sobre­pa­sa sus 570 millo­nes de usua­rios acti­vos. Por su par­te, Tik­Tok eli­mi­na 1.000 millo­nes de per­fi­les frau­du­len­tos, equi­va­len­tes a más de la mitad de su comu­ni­dad glo­bal.

Un desa­fío crí­ti­co para el mar­ke­ting digi­tal

Para las agen­cias de publi­ci­dad y las mar­cas, estos datos no son solo esta­dís­ti­cas de segu­ri­dad, sino que repre­sen­tan una cri­sis de con­fian­za en el retorno de inver­sión (ROI). La pro­li­fe­ra­ción de bots dis­tor­sio­na métri­cas fun­da­men­ta­les como el enga­ge­ment, las impre­sio­nes y el alcan­ce real. Gran par­te del trá­fi­co publi­ci­ta­rio podría estar sien­do con­su­mi­do por algo­rit­mos, inflan­do resul­ta­dos de mane­ra arti­fi­cial y com­pro­me­tien­do seria­men­te la seg­men­ta­ción de audien­cias.

Ante este pano­ra­ma, los exper­tos seña­lan que el sec­tor debe migrar hacia estra­te­gias de “zero fake enga­ge­ment”. Esto impli­ca prio­ri­zar métri­cas de nego­cio veri­fi­ca­bles, como ven­tas reales o clien­tes poten­cia­les (leads) con­fir­ma­dos, en lugar de métri­cas de vani­dad como “likes” o visua­li­za­cio­nes que pue­den ser fácil­men­te repli­ca­das por gran­jas de bots. La urgen­cia por audi­to­rías inde­pen­dien­tes y herra­mien­tas de veri­fi­ca­ción de trá­fi­co se ha vuel­to, hoy más que nun­ca, una nece­si­dad de super­vi­ven­cia comer­cial.

El futu­ro de la ame­na­za

La preo­cu­pa­ción de los espe­cia­lis­tas radi­ca en que estas cifras podrían ser solo una peque­ña mues­tra del colo­sal mun­do fake. “Con­si­de­ran­do el tama­ño de esas pla­ta­for­mas, el alcan­ce glo­bal y el impac­to en la opi­nión y el com­por­ta­mien­to humano, no me sor­pren­de­ría si la can­ti­dad de cuen­tas fal­sas y con­te­ni­do fue­ra inclu­so mayor que la pre­sen­ta­da en los infor­mes de trans­pa­ren­cia ofi­cia­les. Ade­más, creo que estas cifras segui­rán cre­cien­do drás­ti­ca­men­te en el futu­ro, a menos que las redes socia­les encuen­tren for­mas efec­ti­vas de com­ba­tir la ame­na­za”, sos­tie­ne el exper­to en ciber­se­gu­ri­dad de Surfshark.

Guía de auto­pro­tec­ción para el usua­rio

Más allá de los gran­des núme­ros, el usua­rio común es el blan­co final de estas redes de enga­ño que sue­len pro­mo­ver esta­fas con crip­to­mo­ne­das o curas mila­gro­sas. Para evi­tar ser víc­ti­ma, Surfshark reco­mien­da pres­tar aten­ción a seña­les crí­ti­cas: bio­gra­fías vagas, fotos de per­fil gené­ri­cas o aso­cia­ti­vas y cuen­tas de crea­ción recien­te. Asi­mis­mo, aler­tan sobre com­por­ta­mien­tos anti­na­tu­ra­les, como el envío masi­vo de soli­ci­tu­des en poco tiem­po o la insis­ten­cia inme­dia­ta para tras­la­dar la con­ver­sa­ción a cana­les cifra­dos como WhatsApp o Tele­gram.

Las reco­men­da­cio­nes fina­les de los exper­tos son cla­ras: veri­fi­car siem­pre la anti­güe­dad de la cuen­ta, evi­tar inter­ac­tuar con con­te­ni­do sos­pe­cho­so, repor­tar per­fi­les frau­du­len­tos y, fun­da­men­tal­men­te, acti­var la auten­ti­ca­ción de dos fac­to­res (2FA) para pro­te­ger la iden­ti­dad pro­pia en un mun­do digi­tal don­de, cada vez más, no todo el que dice algo es humano.

Patrocinadores

© e-contenidos s.a.