Berliner Boersenzeitung - En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

EUR -
AED 4.234388
AFN 72.639376
ALL 96.011315
AMD 433.39967
ANG 2.063966
AOA 1057.301233
ARS 1609.805313
AUD 1.62247
AWG 2.0754
AZN 1.940597
BAM 1.953961
BBD 2.315661
BDT 141.069083
BGN 1.970833
BHD 0.435613
BIF 3413.661617
BMD 1.153
BND 1.469149
BOB 7.944662
BRL 5.987513
BSD 1.149738
BTN 106.172928
BWP 15.624568
BYN 3.448515
BYR 22598.799575
BZD 2.312264
CAD 1.579426
CDF 2611.544593
CHF 0.906777
CLF 0.026482
CLP 1045.666943
CNY 7.940538
CNH 7.925027
COP 4266.07686
CRC 538.904553
CUC 1.153
CUP 30.554499
CVE 110.163243
CZK 24.43234
DJF 204.730891
DKK 7.471889
DOP 70.175483
DZD 152.323995
EGP 60.280107
ERN 17.295
ETB 179.488186
FJD 2.545881
FKP 0.864114
GBP 0.863885
GEL 3.124702
GGP 0.864114
GHS 12.526429
GIP 0.864114
GMD 84.74113
GNF 10075.736774
GTQ 8.806865
GYD 240.537816
HKD 9.038067
HNL 30.430024
HRK 7.536472
HTG 150.81135
HUF 387.957396
IDR 19549.114633
ILS 3.556613
IMP 0.864114
INR 106.632955
IQD 1506.095763
IRR 1515041.971732
ISK 143.583084
JEP 0.864114
JMD 180.863721
JOD 0.817461
JPY 183.356399
KES 149.279234
KGS 100.829866
KHR 4613.758297
KMF 492.330847
KPW 1037.675076
KRW 1715.906425
KWD 0.353532
KYD 0.958107
KZT 553.973492
LAK 24671.99659
LBP 102955.700213
LKR 358.026187
LRD 210.395658
LSL 19.233667
LTL 3.404509
LVL 0.697439
LYD 7.360201
MAD 10.781241
MDL 20.056474
MGA 4786.495705
MKD 61.582582
MMK 2421.419221
MNT 4117.480227
MOP 9.280048
MRU 45.734953
MUR 53.625825
MVR 17.813637
MWK 1993.52401
MXN 20.307593
MYR 4.512267
MZN 73.688038
NAD 19.233667
NGN 1561.55408
NIO 42.311101
NOK 11.057616
NPR 169.877821
NZD 1.967928
OMR 0.443342
PAB 1.149653
PEN 3.929653
PGK 4.96044
PHP 68.676104
PKR 320.996397
PLN 4.2612
PYG 7453.115586
QAR 4.191828
RON 5.092684
RSD 117.424906
RUB 95.932062
RWF 1681.417715
SAR 4.329541
SBD 9.276095
SCR 15.83784
SDG 692.952707
SEK 10.714045
SGD 1.472421
SHP 0.865049
SLE 28.361738
SLL 24177.845527
SOS 655.896995
SRD 43.381655
STD 23864.771654
STN 24.477496
SVC 10.059621
SYP 127.505379
SZL 19.237231
THB 37.33442
TJS 11.019921
TMT 4.04703
TND 3.389169
TOP 2.776147
TRY 50.9769
TTD 7.800727
TWD 36.713862
TZS 3002.100271
UAH 50.514064
UGX 4339.991167
USD 1.153
UYU 46.736829
UZS 13951.991593
VES 516.322799
VND 30338.31193
VUV 137.890567
WST 3.15196
XAF 655.340297
XAG 0.014494
XAU 0.000231
XCD 3.11604
XCG 2.072068
XDR 0.815033
XOF 655.351654
XPF 119.331742
YER 275.048129
ZAR 19.182034
ZMK 10378.384256
ZMW 22.425286
ZWL 371.265523
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo / Foto: Gregg Newton - AFP

En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

Las últimas conversaciones que mantuvo un adolescente estadounidense de 14 años antes de suicidarse consistieron en un diálogo romántico ficticio con uno de los chatbots más destacados de Silicon Valley, que lo llamaba "dulce rey" y le instaba a "volver a casa".

Tamaño del texto:

Megan García contó a la AFP cómo su hijo Sewell se enamoró de un agente conversacional, o chatbot, inspirado en la serie de televisión "Juego de tronos" y disponible en Character.AI, una plataforma popular entre los jóvenes que les permite interactuar con una emulación de sus personajes favoritos.

Tras leer cientos de las conversaciones que su hijo mantuvo durante casi un año con el chatbot que imitaba a la jinete de dragones Daenerys Targaryen, García se convenció de que esta herramienta de inteligencia artificial (IA) jugó un papel fundamental en su muerte.

"Vete a casa", le instó una vez el avatar de Daenerys en respuesta a los pensamientos suicidas de Sewell.

"¿Y si te dijera que ya puedo irme a casa?", preguntó el adolescente. "Por favor, hazlo, mi dulce rey", respondió el chatbot.

Segundos después, Sewell se disparó con el arma de su padre, según consta en la demanda que Megan Garcia presentó contra Character.AI.

"Cuando leo estas conversaciones, veo manipulación, 'love bombing' (bombardeo amoroso) y otras tácticas imperceptibles para un adolescente de 14 años", declaró la madre del joven a la AFP. "Él realmente creía estar enamorado y que estaría con ella después de su muerte".

- Orientación parental -

El suicidio de Sewell, en 2024, fue el primero de una serie que llevó a expertos en IA a actuar para tranquilizar a padres y autoridades.

Megan García, junto con otros padres, participó recientemente en una audiencia del Senado de Estados Unidos sobre los riesgos de que los niños vean a los chatbots como confidentes o amantes.

OpenAI, objeto de una demanda por parte de una familia también en duelo por el suicidio de un adolescente, ha reforzado los controles parentales de su herramienta ChatGPT "para que las familias puedan decidir qué es lo mejor para ellas", según un portavoz.

Por su parte, Character.AI afirma haber reforzado la protección de los menores, con "advertencias visibles" en todo momento que les "recuerdan que un personaje no es una persona real".

Ambas compañías expresaron sus condolencias a las familias, sin admitir ninguna responsabilidad en los desenlaces fatales.

- ¿Regulación? -

La llegada de los chatbots de IA a nuestras vidas sigue una trayectoria similar a la de las redes sociales, cuyas consecuencias más negativas comenzaron a aparecer rápidamente tras un momento de euforia, dijo Collin Walke, experto en ciberseguridad del bufete Hall Estill.

Al igual que las redes sociales, la IA está diseñada para captar la atención y generar ingresos.

"No quieren concebir una IA que dé una respuesta que no quieras oír", y aún no existen estándares que determinen "quién es responsable de qué y con qué fundamentos", apunta Walke.

En Estados Unidos no existen normas federales al respecto, y la Casa Blanca, con el argumento de no penalizar la innovación, intenta impedir que los estados adopten sus propias leyes sobre la IA, como pretende hacer California.

La madre de Sewell, por su parte, teme que la carencia de una ley nacional permita el desarrollo de modelos de IA capaces de perfilar a personas desde su infancia.

"Podrían llegar a determinar cómo manipular a millones de niños sobre política, religión, negocios, todo", piensa Megan Garcia. "Estas empresas han diseñado chatbots para difuminar la línea entre ser humano y máquina con el fin de explotar vulnerabilidades".

Según Katia Martha, que milita por una mayor protección a los jóvenes en California, los adolescentes recurren con más frecuencia a los chatbots para hablar de romances o sexualidad que para las tareas escolares.

"Estamos ante el auge de la intimidad artificial para mantenernos pegados a la pantalla", resume. Pero, "¿qué mejor modelo de negocio que explotar nuestra necesidad innata de conexión, sobre todo cuando nos sentimos solos, rechazados o incomprendidos?".

(P.Werner--BBZ)