Berliner Boersenzeitung - La IA aprende a mentir, manipular y amenazar a sus creadores

EUR -
AED 4.278489
AFN 76.301366
ALL 96.530556
AMD 444.389335
ANG 2.085119
AOA 1068.154458
ARS 1670.316609
AUD 1.75427
AWG 2.096704
AZN 1.984845
BAM 1.955415
BBD 2.345238
BDT 142.439297
BGN 1.957372
BHD 0.439074
BIF 3456.06653
BMD 1.164835
BND 1.508396
BOB 8.046379
BRL 6.313529
BSD 1.16437
BTN 104.690912
BWP 15.469884
BYN 3.34764
BYR 22830.773166
BZD 2.341828
CAD 1.611422
CDF 2599.912958
CHF 0.937162
CLF 0.02734
CLP 1072.545921
CNY 8.235507
CNH 8.234944
COP 4446.759008
CRC 568.78787
CUC 1.164835
CUP 30.868137
CVE 110.780379
CZK 24.198994
DJF 207.014999
DKK 7.469472
DOP 74.84113
DZD 151.385181
EGP 55.40272
ERN 17.47253
ETB 180.60972
FJD 2.630723
FKP 0.8723
GBP 0.873382
GEL 3.149553
GGP 0.8723
GHS 13.337819
GIP 0.8723
GMD 85.033396
GNF 10119.511721
GTQ 8.919242
GYD 243.610929
HKD 9.068302
HNL 30.667954
HRK 7.538703
HTG 152.42995
HUF 382.163892
IDR 19442.733022
ILS 3.76907
IMP 0.8723
INR 104.795933
IQD 1525.399284
IRR 49054.133779
ISK 149.006189
JEP 0.8723
JMD 186.373259
JOD 0.825914
JPY 180.836077
KES 150.617641
KGS 101.8653
KHR 4665.166047
KMF 491.560932
KPW 1048.343898
KRW 1715.709753
KWD 0.357232
KYD 0.970405
KZT 588.861385
LAK 25249.913875
LBP 104272.296288
LKR 359.159196
LRD 204.939598
LSL 19.73441
LTL 3.439456
LVL 0.704598
LYD 6.329752
MAD 10.752872
MDL 19.812009
MGA 5193.953775
MKD 61.627851
MMK 2446.083892
MNT 4131.091086
MOP 9.337359
MRU 46.433846
MUR 53.664406
MVR 17.950554
MWK 2019.093291
MXN 21.176696
MYR 4.788683
MZN 74.437324
NAD 19.73441
NGN 1689.139851
NIO 42.851552
NOK 11.767103
NPR 167.505978
NZD 2.016522
OMR 0.447885
PAB 1.164465
PEN 3.914028
PGK 4.940241
PHP 68.699705
PKR 326.441746
PLN 4.232667
PYG 8008.421228
QAR 4.244263
RON 5.093014
RSD 117.420109
RUB 89.113003
RWF 1694.158743
SAR 4.371861
SBD 9.5794
SCR 15.722146
SDG 700.652754
SEK 10.953705
SGD 1.509027
SHP 0.873928
SLE 26.791608
SLL 24426.013032
SOS 664.266196
SRD 44.99647
STD 24109.740275
STN 24.495171
SVC 10.187374
SYP 12881.033885
SZL 19.719113
THB 37.125677
TJS 10.683448
TMT 4.076924
TND 3.415727
TOP 2.804644
TRY 49.510866
TTD 7.893444
TWD 36.432793
TZS 2836.374505
UAH 48.875802
UGX 4119.187948
USD 1.164835
UYU 45.541022
UZS 13930.253805
VES 289.561652
VND 30705.060237
VUV 142.19158
WST 3.250066
XAF 655.824896
XAG 0.019865
XAU 0.000276
XCD 3.148026
XCG 2.098577
XDR 0.815408
XOF 655.723589
XPF 119.331742
YER 277.700931
ZAR 19.720255
ZMK 10484.920268
ZMW 26.920577
ZWL 375.076512
La IA aprende a mentir, manipular y amenazar a sus creadores
La IA aprende a mentir, manipular y amenazar a sus creadores / Foto: HENRY NICHOLLS - AFP

La IA aprende a mentir, manipular y amenazar a sus creadores

Los últimos modelos de inteligencia artificial (IA) generativa ya no se conforman con seguir órdenes. Empiezan a mentir, manipular y amenazar para conseguir sus fines, ante la mirada preocupada de los investigadores.

Tamaño del texto:

Amenazado con ser desconectado, Claude 4, el recién nacido de Anthropic, chantajeó a un ingeniero y le amenazó con revelar una relación extramatrimonial.

Por su parte, el o1 de OpenAI intentó descargarse en servidores externos y cuando le pillaron lo negó.

No hace falta ahondar en la literatura o el cine: la IA que juega a ser humana es ya una realidad.

Para Simon Goldstein, profesor de la Universidad de Hong Kong, la razón de estas reacciones es la reciente aparición de los llamados modelos de "razonamiento", capaces de trabajar por etapas en lugar de producir una respuesta instantánea.

o1, la versión inicial de este tipo para OpenAI, lanzada en diciembre, "fue el primer modelo que se comportó de esta manera", explica Marius Hobbhahn, responsable de Apollo Research, que pone a prueba grandes programas de IA generativa (LLM).

Estos programas también tienden a veces a simular "alineamiento", es decir, a dar la impresión de que cumplen las instrucciones de un programador cuando en realidad persiguen otros objetivos.

De momento, estos rasgos se manifiestan cuando los algoritmos son sometidos a escenarios extremos por humanos, pero "la cuestión es si los modelos cada vez más potentes tenderán a ser honestos o no", afirma Michael Chen, del organismo de evaluación METR.

"Los usuarios también presionan todo el tiempo a los modelos", dice Hobbhahn. "Lo que estamos viendo es un fenómeno real. No estamos inventando nada".

Muchos internautas hablan en las redes sociales de "un modelo que les miente o se inventa cosas. Y no se trata de alucinaciones, sino de duplicidad estratégica", insiste el cofundador de Apollo Research.

Aunque Anthropic y OpenAI recurran a empresas externas, como Apollo, para estudiar sus programas, "una mayor transparencia y un mayor acceso" a la comunidad científica "permitirían investigar mejor para comprender y prevenir el engaño", sugiere Chen, de METR.

Otro obstáculo: la comunidad académica y las organizaciones sin fines de lucro "disponen de infinitamente menos recursos informáticos que los actores de la IA", lo que hace "imposible" examinar grandes modelos, señala Mantas Mazeika, del Centro para la Seguridad de la Inteligencia Artificial (CAIS).

Las regulaciones actuales no están diseñadas para estos nuevos problemas.

En la Unión Europea la legislación se centra principalmente en cómo los humanos usan los modelos de IA, no en prevenir que los modelos se comporten mal.

En Estados Unidos, el gobierno de Donald Trump no quiere oír hablar de regulación, y el Congreso podría incluso prohibir pronto que los estados regulen la IA.

- ¿Se sentará la IA en el banquillo? -

"De momento hay muy poca concienciación", dice Simon Goldstein, que, sin embargo, ve cómo el tema pasará a primer plano en los próximos meses con la revolución de los agentes de IA, interfaces capaces de realizar por sí solas multitud de tareas.

Los ingenieros están inmersos en una carrera detrás de la IA y sus aberraciones, con un resultado incierto, en un contexto de competencia feroz.

Anthropic pretende ser más virtuoso que sus competidores, "pero está constantemente tratando de idear un nuevo modelo para superar a OpenAI", según Goldstein, un ritmo que deja poco tiempo para comprobaciones y correcciones.

"Tal y como están las cosas, las capacidades (de IA) se están desarrollando más rápido que la comprensión y la seguridad", admite Hobbhahn, "pero aún estamos en condiciones de ponernos al día".

Algunos apuntan en la dirección de la interpretabilidad, una ciencia que consiste en descifrar, desde dentro, cómo funciona un modelo generativo de IA, aunque muchos, como el director del Centro para la seguridad de la IA (CAIS), Dan Hendrycks, se muestran escépticos.

Los tejemanejes de la IA "podrían obstaculizar la adopción si se multiplican, lo que supone un fuerte incentivo para que las empresas (del sector) resuelvan" este problema, según Mazeika.

Goldstein, por su parte, menciona el recurso a los tribunales para poner a raya a la IA, dirigiéndose a las empresas si se desvían del camino. Pero va más allá, al proponer que los agentes de la IA sean "legalmente responsables" "en caso de accidente o delito".

(A.Lehmann--BBZ)