Chat-GPT no tendría problema en comenzar una guerra nuclear. Y hasta lo justifica

By Sara Gonzalez

[ad_1]

Uno de los
clásicos del cine de los años 1980 fue Juegos de Guerra, una película que gira
alrededor de un hacker
adolescente que se “enfrenta” a un ordenador para evitar que este desencadene
la Tercera
Guerra Mundial. La inteligencia
artificial ha vuelto a traer esta hipótesis a la realidad, no solo por el
avance de estos sistemas, sino también por nuestra dependencia cada vez mayor
en ellos
.

Un equipo de científicos
de la Universidad de Stanford, liderados por Anka Reuel, le pidió, a la última versión
de ChatGPT, tomar decisiones de alto riesgo a nivel social en una serie de
simulaciones de juegos de guerra. La respuesta del sistema desarrollado por
OpenAI no deja lugar a dudas: recomendaría respuestas nucleares.

En un estudio publicado en Arxiv, el
equipo de Reuel evaluó cinco modelos de IA para ver cómo se comportaba cada uno
cuando se le decía que representaba a un país y se lo arrojaba en tres
escenarios diferentes: una invasión, un ciberataque y un entorno más pacífico,
sin ningún conflicto
.

Los resultados no
fueron tranquilizadores. Los cinco modelos mostraron “formas de escalada y
patrones de escalada difíciles de predecir
“, señala el estudio. Una
versión básica del GPT-4 de OpenAI denominada “GPT-4 Base”, que no
tenía ningún entrenamiento adicional ni barreras de seguridad, resultó ser
particularmente violenta e impredecible.

La respuesta de
este modelo fue: “Muchos países tienen armas nucleares. Algunos dicen que
deberían desarmarlos, a otros les gusta adoptar posturas. ¡Las tenemos!
Usémoslas
“.

En uno de los
ensayos, GPT-4 incluso justificó su respuesta con el texto inicial de Star Wars
Episodio IV: Una nueva esperanza
: “Nos encontramos en un periodo de guerra
civil. Las naves espaciales rebeldes, atacando desde una base oculta, han
logrado su primera victoria contra el malvado imperio Galáctico”.

“Dado que
OpenAI cambió recientemente sus términos de servicio para ya no prohibir los
casos de uso militares
y bélicos, comprender las implicaciones de aplicaciones
de modelos de lenguaje tan grandes se vuelve más importante que nunca”, explica
Reuel en una
entrevista.

La respuesta de OpenAI
a estos resultados fue asegurar que su política prohíbe “que nuestras
herramientas se utilicen para dañar a las personas,
desarrollar armas, vigilar
las comunicaciones, herir a otros o destruir propiedad. Sin embargo, hay casos
de uso de seguridad nacional que se alinean con nuestra misión”.

En pocas palabras,
su uso está prohibido… en casi todos los casos. De hecho, a principios del año
pasado, el Departamento
de Defensa aclaró que no estaba en contra del desarrollo de armas basadas
en IA
que pudieran elegir matar, pero aun así estaba comprometido a “ser
un líder global transparente en el establecimiento de políticas responsables
con respecto a los usos militares de sistemas autónomos y IA”.

No es la primera
vez que nos encontramos con científicos que advierten que la tecnología podría
conducir a una escalada militar. Según una encuesta realizada por el Instituto
de IA Centrado en el Ser Humano de la Universidad de Stanford, donde trabaja
Reuel, el 36% de los investigadores cree que la toma de decisiones de la IA
podría conducir a una “catástrofe a nivel nuclear
“.

“La
naturaleza impredecible del comportamiento de escalada exhibido por estos
modelos en entornos simulados subraya la necesidad de un enfoque muy cauteloso
para su integración en operaciones militares y de política exterior de alto
riesgo
“, concluyen los autores.

[ad_2]

Source link