Berliner Boersenzeitung - La IA enfrenta el desafío de aprender a olvidar los errores asimilados

EUR -
AED 4.100226
AFN 78.607645
ALL 98.167058
AMD 432.287047
ANG 1.997848
AOA 1023.661764
ARS 1274.49341
AUD 1.739353
AWG 2.012161
AZN 1.908186
BAM 1.955741
BBD 2.261232
BDT 136.075923
BGN 1.95883
BHD 0.422187
BIF 3332.500143
BMD 1.116317
BND 1.454256
BOB 7.738768
BRL 6.322037
BSD 1.119966
BTN 95.745131
BWP 15.144546
BYN 3.66509
BYR 21879.80438
BZD 2.249633
CAD 1.55955
CDF 3204.944523
CHF 0.9353
CLF 0.027413
CLP 1051.968478
CNY 8.048085
CNH 8.04872
COP 4704.55903
CRC 567.283002
CUC 1.116317
CUP 29.582389
CVE 110.261696
CZK 24.899774
DJF 199.434024
DKK 7.461016
DOP 65.908025
DZD 148.865539
EGP 55.928324
ERN 16.744748
ETB 151.19477
FJD 2.537726
FKP 0.84048
GBP 0.840568
GEL 3.058975
GGP 0.84048
GHS 13.887584
GIP 0.84048
GMD 80.932572
GNF 9698.709382
GTQ 8.598742
GYD 234.312979
HKD 8.722507
HNL 29.141127
HRK 7.532874
HTG 146.545609
HUF 402.867272
IDR 18412.804255
ILS 3.967523
IMP 0.84048
INR 95.543468
IQD 1467.156037
IRR 47010.898839
ISK 145.891709
JEP 0.84048
JMD 178.53465
JOD 0.791809
JPY 162.594297
KES 144.755662
KGS 97.621792
KHR 4481.865703
KMF 492.791823
KPW 1004.684945
KRW 1561.861035
KWD 0.343145
KYD 0.933372
KZT 571.02289
LAK 24221.274219
LBP 100346.793146
LKR 335.109959
LRD 223.983288
LSL 20.217294
LTL 3.296193
LVL 0.675248
LYD 6.178815
MAD 10.389889
MDL 19.509415
MGA 5019.849582
MKD 61.528156
MMK 2343.910844
MNT 3989.460179
MOP 9.01513
MRU 44.327672
MUR 51.473219
MVR 17.25843
MWK 1941.94181
MXN 21.730104
MYR 4.795722
MZN 71.346223
NAD 20.217294
NGN 1788.718987
NIO 41.208765
NOK 11.593846
NPR 153.19241
NZD 1.897965
OMR 0.429497
PAB 1.119966
PEN 4.129076
PGK 4.654861
PHP 62.294374
PKR 315.37555
PLN 4.268493
PYG 8941.732064
QAR 4.081978
RON 5.106256
RSD 117.226487
RUB 90.497288
RWF 1603.751944
SAR 4.18645
SBD 9.310558
SCR 15.922323
SDG 670.330717
SEK 10.907869
SGD 1.4521
SHP 0.87725
SLE 25.332941
SLL 23408.600134
SOS 640.08082
SRD 40.836531
STD 23105.498751
SVC 9.799706
SYP 14514.182108
SZL 20.222394
THB 37.223555
TJS 11.546554
TMT 3.91269
TND 3.376699
TOP 2.614526
TRY 43.377276
TTD 7.596772
TWD 33.732401
TZS 3021.009477
UAH 46.488807
UGX 4097.877209
USD 1.116317
UYU 46.598604
UZS 14520.564897
VES 105.163968
VND 28936.599451
VUV 135.210799
WST 3.101717
XAF 655.937345
XAG 0.034565
XAU 0.000349
XCD 3.016902
XDR 0.815776
XOF 655.937345
XPF 119.331742
YER 272.494958
ZAR 20.14343
ZMK 10048.18544
ZMW 30.104098
ZWL 359.453474
La IA enfrenta el desafío de aprender a olvidar los errores asimilados
La IA enfrenta el desafío de aprender a olvidar los errores asimilados / Foto: OLIVIER MORIN - AFP/Archivos

La IA enfrenta el desafío de aprender a olvidar los errores asimilados

Brian Hood descubrió un día que ChatGPT le atribuía un pasado criminal, pero para resolver este error, este político australiano indagó en un problema que plantea también un desafío para los ingenieros: cómo enseñar a la Inteligencia Artificial (IA) a borrar información errónea.

Tamaño del texto:

Hood intentó una solución convencional y amenazó con demandar por difamación a OpenAI, la empresa creadora de ChatGPT.

Pero entrenar a este tipo de robot es un proceso lento y costoso, por lo que este problema expone a la luz un desafío que será crucial en los próximos años, especialmente de cara a la reglamentación en la Unión Europea sobre protección de los datos personales.

Hood afirma que sus comunicaciones con OpenAI no fueron de gran ayuda, pero que sus quejas, que inundaron los medios, solucionaron el problema cuando la empresa actualizó la aplicación y el robot dejó de repetir estas afirmaciones falsas sobre sus antecedentes penales.

"Irónicamente, la gran cantidad de [información en] prensa sobre mi historia corrigió los registros", relató a AFP Hood, que es alcalde de la ciudad de Hepburn, en Australia.

La empresa OpenAI no respondió a las peticiones de comentarios sobre este tema.

"La capacidad de eliminar datos de las bases de datos de entrenamiento es un tema crítico de cara al futuro", señaló Lisa Given, de la Universidad RMIT de Melbourne, en Australia.

En el caso de los buscadores de internet, es posible borrar entradas, pero este proceso no es tan simple con los modelos basados en la IA.

En respuesta a este desafío, un grupo de científicos está estudiando un nuevo campo denominado el "desaprendizaje automático", que trata de entrenar algoritmos para que "olviden" datos que sean problemáticos.

- "Una herramienta interesante" -

Un experto en este campo, Meghdad Kurmanji de la Universidad de Warwick en el Reino Unido, explicó a AFP que este tema comenzó a cobrar relevancia en los últimos tres o cuatro años.

Entre quienes se apuntaron a este desafío está Google DeepMind, la división de IA del gigante californiano.

Los expertos de Google redactaron junto a Kurmanji un artículo publicado el mes pasado en el que proponen un algoritmo para depurar los datos seleccionados de las bases que componen los algoritmos en los que se basan ChatGPT y el chatbot Bard de Google.

Además, Google lanzó una competencia en junio para medir distintos métodos para "desaprender", que hasta ahora atrajo a más de 1.000 participantes.

Kurmanji afirma que "desaprender" puede ser una "herramienta muy interesante" para que los motores de búsqueda administren las peticiones para eliminar contenido, por ejemplo debido a asuntos relacionados con las leyes sobre la privacidad.

El experto afirmó además que el algoritmo también logró buenos resultados en pruebas de eliminación de material protegido por derechos de autor y en la corrección de sesgos.

- "No es la panacea" -

Lisa Given señaló que todavía hay mucho desconocimiento sobre cómo funcionan estos sistemas e incluso sobre cuáles son las bases de datos que sirven como entrenamiento para estas máquinas, por lo que encontrar una solución puede ser un proceso largo.

Michael Rovatsos, de la Universidad de Edimburgo, apuntó que quedan aristas técnicas por resolver, por ejemplo qué hacer si una compañía recibe una ola de peticiones para eliminar contenido.

Añadió que el desaprendizaje no resuelve temas más amplios que enfrenta la industria de la IA, como la forma en que la que se recopilan los datos, quién se beneficia de su uso o quién asume la responsabilidad si un algoritmo causa un daño.

"La solución técnica no es la panacea", afirmó.

En un momento en que la investigación sobre este campo está en pañales y la regulación es casi inexistente, Hood, que es un ferviente defensor del la IA, pese a su experiencia, señaló que todavía estamos en una era de soluciones anticuadas.

"Cuando los chatbot generan basura, los usuarios simplemente necesitan revisar todo dos veces", afirmó.

(L.Kaufmann--BBZ)