Berliner Boersenzeitung - Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

EUR -
AED 4.326998
AFN 75.393857
ALL 95.5279
AMD 434.702457
ANG 2.108524
AOA 1081.424837
ARS 1646.882189
AUD 1.625688
AWG 2.123385
AZN 2.007315
BAM 1.958422
BBD 2.372365
BDT 144.530626
BGN 1.965061
BHD 0.444591
BIF 3504.616123
BMD 1.178022
BND 1.4937
BOB 8.139898
BRL 5.789277
BSD 1.177872
BTN 111.230009
BWP 15.815175
BYN 3.328957
BYR 23089.235637
BZD 2.368961
CAD 1.611929
CDF 2727.12188
CHF 0.914805
CLF 0.026656
CLP 1049.09994
CNY 8.011435
CNH 8.006045
COP 4417.229942
CRC 541.476707
CUC 1.178022
CUP 31.217589
CVE 110.402975
CZK 24.303664
DJF 209.358573
DKK 7.472714
DOP 70.053793
DZD 155.802101
EGP 62.103687
ERN 17.670333
ETB 183.933564
FJD 2.572216
FKP 0.865636
GBP 0.864374
GEL 3.15756
GGP 0.865636
GHS 13.269767
GIP 0.865636
GMD 85.996041
GNF 10334.916001
GTQ 8.994042
GYD 246.469993
HKD 9.222129
HNL 31.315928
HRK 7.533499
HTG 154.22649
HUF 354.383295
IDR 20450.46585
ILS 3.417801
IMP 0.865636
INR 111.208774
IQD 1543.166109
IRR 1546625.381397
ISK 143.789847
JEP 0.865636
JMD 185.658574
JOD 0.835264
JPY 184.485395
KES 152.142024
KGS 102.983297
KHR 4726.32797
KMF 493.591725
KPW 1060.162209
KRW 1722.139364
KWD 0.362466
KYD 0.981714
KZT 544.390349
LAK 25833.587986
LBP 105047.746667
LKR 379.223933
LRD 216.159411
LSL 19.325575
LTL 3.478394
LVL 0.712574
LYD 7.448308
MAD 10.772663
MDL 20.14397
MGA 4920.148927
MKD 61.660503
MMK 2473.383461
MNT 4216.02678
MOP 9.498017
MRU 47.08404
MUR 55.155446
MVR 18.206379
MWK 2042.2343
MXN 20.257447
MYR 4.619071
MZN 75.280013
NAD 19.325575
NGN 1601.462759
NIO 43.344169
NOK 10.842499
NPR 177.984299
NZD 1.975367
OMR 0.452939
PAB 1.177977
PEN 4.07249
PGK 5.201501
PHP 71.273294
PKR 328.276462
PLN 4.233989
PYG 7194.991899
QAR 4.305381
RON 5.219078
RSD 117.387604
RUB 87.410372
RWF 1726.912122
SAR 4.455323
SBD 9.462179
SCR 16.493534
SDG 707.406677
SEK 10.861006
SGD 1.492205
SHP 0.879513
SLE 28.983666
SLL 24702.532559
SOS 673.201333
SRD 44.056898
STD 24382.681668
STN 24.530657
SVC 10.306881
SYP 130.223224
SZL 19.312858
THB 37.941785
TJS 10.990615
TMT 4.134858
TND 3.421581
TOP 2.836395
TRY 53.436978
TTD 7.982977
TWD 36.926878
TZS 3060.965929
UAH 51.739962
UGX 4413.515765
USD 1.178022
UYU 46.978711
UZS 14287.856164
VES 584.545302
VND 30991.408731
VUV 139.037421
WST 3.18548
XAF 656.836423
XAG 0.014592
XAU 0.000249
XCD 3.183664
XCG 2.122853
XDR 0.819328
XOF 656.777804
XPF 119.331742
YER 281.080331
ZAR 19.296287
ZMK 10603.617886
ZMW 22.427027
ZWL 379.322676
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: Olivier Douliery - AFP

Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

(K.Müller--BBZ)