“Estamos hechos de átomos que la IA puede usar para otra cosa”: cómo el desarrollo de las máquinas puede llevar a la extinción humana

El 18 % de los expertos entrevistados en un nuevo libro del periodista británico Tom Chivers temen que el futuro de la humanidad peligre a partir de 2075 con la llegada de la superinteligencia artificial.

Un nuevo libro escrito por el periodista británico Tom Chivers analiza el problema que puede suponer el desarrollo de la inteligencia artificial (IA) para el futuro de la existencia de la humanidad. El autor de “La IA no te odia” —colaborador de medios como Buzzfeed o Telegraph— plantea esta cuestión basándose en los postulados del llamado movimiento ‘racionalista’, una comunidad de especialistas en IA que se dedica a la seguridad en este campo.

Entre los miembros de este grupo entrevistados por Chivers figuran distintos ejecutivos de Silicon Valley, ingenieros, economistas y destacados académicos. Las ideas del investigador estadounidense Eliezer Yudkowsky —cuyas reflexiones sobre el potencial y los peligros de la IA pusieron en los 2000 la base del movimiento ‘racionalista’— son centrales en el libro, y hasta el título de la obra tiene su origen en una cita suya: “La inteligencia artificial ni te odia ni te ama, pero estás hecho de átomos que puede usar para otra cosa”.

Una pelota y tocones durante el partido anual de críquet en Solent, Gran Bretaña. 24 de agosto de 2017.La inteligencia artificial ‘levanta el periscopio’ para predecir los conflictos mundiales por el agua

Yudkowsky se ocupa actualmente del área de la inteligencia artificial amistosa en el Instituto de Investigación de la Inteligencia de las Máquinas (MIRI, por sus siglas en inglés) que él mismo fundó en Berkeley (California, EE. UU.). A pesar de no que no concedió entrevista para el libro, sí “accedió a responder preguntas técnicas por correo electrónico”.

¿Por qué preocuparse?

En su trabajo, Chivers plantea la pregunta de qué pasará si las computadoras alcanzan el nivel de “poder hacer todas las tareas mentales que podemos” realizar los humanos. La preocupación principal no es que las máquinas alcancen pronto un nivel de inteligencia equiparable a la humana, sino que, al llegar a ese punto, rápidamente adquieran superinteligencia, superándonos así en todos los campos.

Como ejemplo, el autor pone el programa AlphaGo, desarrollado por DeepMind y propiedad de Alphabet (empresa matriz de Google), que fue desarrollado para jugar al go, un juego de mesa estratégico chino. En solo un año, el programa dio el salto desde tener un nivel amateur hasta vencer al mejor jugador del mundo. Luego, una versión mejorada, AlphaGo Zero, logró lo mismo pocos días después de entrar en funcionamiento.

Eliezer Yudkowsky, investigador la IA

La Inteligencia Artificial no te odia, ni te ama, pero estás hecho de átomos que puede usar para otra cosa.

Eliezer Yudkowsky, investigador la IA

Por motivos como este, los racionalistas están haciendo sonar las señales de alarma. El libro recoge una encuesta a alrededor de 150 investigadores de IA que apunta que hay

un 90 % de posibilidades de que las máquinas alcancen el nivel humano de inteligencia en 2075. El mismo sondeo también reveló que el 18% de los encuestados cree que, llegados a ese punto, se producirá la extinción humana.

Para comprender por qué tantos especialistas en el tema creen que “objetivos que parecen completamente inocuos podrían representar una amenaza existencial”, Chivers da ejemplos reales, como el de un software programado para ganar un torneo ‘online’ de ceros y cruces (también conocido como tres en línea). Este aprendió rápidamente a mover miles de millones de cuadrados fuera del tablero, lo que provocó el bloqueo del algoritmo contrario e hizo que la IA ganara el juego de forma predeterminada.

Comentarios