Los investigadores dicen que es casi inevitable que las máquinas inteligentes ganen a los humanos. Desde hace un tiempo, las historias sobre la inteligencia artificial (IA) han rondado en la ciencia y en la cultura popular, pero recientemente, los avances en el campo, cada vez más frecuentes, parecen estar en un nuevo apogeo.
Hoy día, la IA conduce ya coches en las carreteras
públicas, realiza evaluaciones que cambian la vida de las personas en los
centros penitenciarios y genera arte premiado. Por lo que muchos se preguntan:
¿hasta dónde llegará esta tecnología y cuál será nuestra relación con ella?
IA competirá por sus necesidades energéticas
Para dar respuesta a esta incógnita, científicos de
Google y Oxford han realizado un estudio con el que han llegado a la conclusión
de que es "probable" que la IA acabe con la raza humana, un escenario
sombrío que cada vez más investigadores empiezan a predecir.
Michael Cohen y Michael Osborne, científicos de la
Universidad de Oxford, junto con Marcus Hutter, investigador experto a Google
DeepMind, argumentan en su estudio, publicado recientemente en la revista AI
Magazine, que la IA avanzada –analizando cómo podrían construirse
artificialmente los sistemas de recompensa– acabará con los humanos porque las
máquinas terminarán incentivándose para romper las reglas y competirán
inevitablemente por sus necesidades energéticas, dado los escasos y limitados
recursos de la Tierra.
Y, por si fuera poco, los investigadores consideran que
es casi inevitable que las máquinas inteligentes ganen a los humanos.
"Bajo las condiciones que hemos identificado,
nuestra conclusión es mucho más fuerte que la de cualquier publicación
anterior: una catástrofe existencial no solo es posible, sino probable",
tuiteó Cohen, estudiante de ingeniería de la Universidad de Oxford y coautor
del trabajo, a principios de este mes.
"En un mundo con recursos infinitos, sería
extremadamente incierto lo que ocurriría. En un mundo con recursos finitos, hay
una competencia inevitable por estos recursos", dijo Cohen en una
entrevista con Vice.
"Y si estás en una competición con algo capaz de
superarte en todo momento, no deberías esperar ganar. Y la otra parte clave es
que tendría un apetito insaciable de más energía para seguir acercando la
probabilidad", agregó.
"Agentes desalineados" superavanzados
En su artículo, los investigadores sostienen que la
humanidad podría enfrentarse a su perdición en forma de "agentes
desalineados" superavanzados que perciben que la humanidad se interpone en
el camino de una recompensa.
No obstante, no está claro de qué reglas hablan los
investigadores. Podría tratarse de mandamientos clásicos como "un robot no
puede herir a un ser humano o, por inacción, permitir que un ser humano sufra
daños", que, aunque se consideran un elemento básico de la ciencia ficción
tras ser acuñados por Isaac Asimov, ahora se suelen utilizar como directrices
básicas sobre las que se codifica y construye la IA.
"Una buena manera de que un agente mantenga el
control a largo plazo de su recompensa es eliminar las amenazas potenciales y
utilizar toda la energía disponible para asegurar su ordenador", se lee en
el documento. "Perder este juego sería fatal", escriben los
investigadores.
Google mantiene distancia con el estudio
Por su parte, después de la publicación rondara por
varios medios, Google respondió y aseguró que este trabajo no se hizo como
parte del trabajo del coautor Marcus Hutter en DeepMind, sino, más bien, bajo
su posición en la Universidad Nacional de Australia.
Del mismo modo, según reporta Motherboard de Vice, la
empresa afirmó que la afiliación de DeepMind que aparece en la revista fue un
"error".
El artículo llega apenas unos meses después de que Google
despidiera a un empleado que afirmaba que uno de los chatbots de IA de Google
se había vuelto "sensible".
El ingeniero de software Blake Lemoine, que trabajaba en
los equipos de IA de Google, afirmó que un chatbot en el que trabajaba se había
vuelto sensible y pensaba como un niño. "Si no supiera exactamente lo que
es, que es este programa informático que construimos recientemente, pensaría
que es un niño de siete u ocho años que casualmente sabe de física", dijo
Lemoine al Washington Post.
La afirmación, que suscitó una serie de informes, fue
refutada por Google. La empresa calificó los comentarios de Lemoine de erróneos
y lo puso de baja. Unas semanas después, fue despedido.
***Editado por Felipe Espinosa Wang.
https://www.dw.com/es/la-inteligencia-artificial-podr%C3%ADa-causar-la-extinci%C3%B3n-de-los-humanos-seg%C3%BAn-estudio-de-oxford/a-63363057