Rubén Tinedo Torres: La IA está tomando decisiones en justicia o salud

Rubén Tinedo Torres: La IA está tomando decisiones en justicia o salud
El inge­nie­ro de sis­te­mas, Rubén Tine­do Torres, ha adver­ti­do que la inte­li­gen­cia arti­fi­cial (IA) está toman­do deci­sio­nes cru­cia­les sobre la vida de las per­so­nas, sin que se den cuen­ta, y prác­ti­ca­men­te sin cues­tio­na­mien­tos rele­van­tes.

¿Quién deci­de por ti? La inte­li­gen­cia arti­fi­cial, que con­tro­la tu vida sin que lo sepas. Pare­ce una pelí­cu­la de cien­cia fic­ción, pero no lo es. Des­de el tra­ba­jo que no con­se­guis­te has­ta el anun­cio que apa­re­ce en tu red social, un algo­rit­mo invi­si­ble está actuan­do como juez y eje­cu­tor, y ni siquie­ra lo sabías”, expre­só Tine­do Torres, espe­cia­lis­ta en Tele­co­mu­ni­ca­cio­nes con 25 años de expe­rien­cia.

El exper­to con­si­de­ra que “es hora de exi­gir trans­pa­ren­cia” y de pre­gun­tar quié­nes están detrás de las pan­ta­llas y cómo toman sus deci­sio­nes.

Entre los sec­to­res con más peli­gros de intro­mi­sión de la IA, Tine­do Torres obser­va con preo­cu­pa­ción la jus­ti­cia, el acce­so al empleo, al cré­di­to y la salud. “El ejem­plo más alar­man­te es que, en algu­nos paí­ses, la IA ya está ayu­dan­do a deci­dir sen­ten­cias judi­cia­les y eva­luar la pro­ba­bi­li­dad de que un acu­sa­do come­ta otro deli­to”, ase­gu­ra el pro­fe­sio­nal.

Pue­de suce­der que en la com­pra de una casa, el ban­co recha­ce la soli­ci­tud de prés­ta­mo por­que “el sis­te­ma no apro­bó tu per­fil”, pero ese sis­te­ma es en reali­dad una IA que ana­li­zó el his­to­rial cre­di­ti­cio, el lugar de resi­den­cia, los hábi­tos de con­su­mo y la fre­cuen­cia de uso de las tar­je­tas de cré­di­to. “Y aquí está el pro­ble­ma: si vives en una zona don­de otros han teni­do pro­ble­mas finan­cie­ros, el algo­rit­mo podría eti­que­tar­te como un ries­go, aun­que seas res­pon­sa­ble con tu dine­ro”, aler­ta Tine­do Torres.

En este sen­ti­do, recuer­da que, en Esta­dos Uni­dos, “se des­cu­brió que cier­tos sis­te­mas de eva­lua­ción cre­di­ti­cia pena­li­zan injus­ta­men­te a mino­rías racia­les, basán­do­se en patro­nes his­tó­ri­cos de su entorno. Estas deci­sio­nes no son huma­nas, pero afec­tan vidas reales”.

Rubén Tine­do Torres habla tam­bién sobre cómo la IA se va incor­po­ran­do en el sec­tor de la salud, don­de “el sis­te­ma” deci­de qué pacien­tes reci­ben tra­ta­mien­tos prio­ri­ta­rios. “En un hos­pi­tal esta­dou­ni­den­se, un algo­rit­mo uti­li­za­do para prio­ri­zar cui­da­dos inten­si­vos duran­te una cri­sis dejó fue­ra a per­so­nas mayo­res por­que sus datos suge­rían que tenían menos pro­ba­bi­li­da­des de sobre­vi­vir. No hubo con­tex­to humano, no se con­si­de­ra­ron his­to­rias per­so­na­les. Solo núme­ros fríos”, reve­ló.

Para el pro­fe­sio­nal, el desa­fío no es dete­ner el avan­ce de la IA, sino ase­gu­rar­nos de que esté al ser­vi­cio de la huma­ni­dad. Esto impli­ca un com­pro­mi­so colec­ti­vo: los gobier­nos deben regu­lar, las empre­sas deben actuar con res­pon­sa­bi­li­dad y la socie­dad debe estar pre­pa­ra­da para exi­gir ren­di­ción de cuen­tas. Solo enton­ces podre­mos apro­ve­char los bene­fi­cios de la inte­li­gen­cia arti­fi­cial, mien­tras mini­mi­za­mos sus ries­gos.