El informe AI 2027 está generando mucho revuelo porque plantea, con datos y escenarios concretos, cómo la inteligencia artificial podría cambiar el mundo.
IA que controla humanos
Generada con IA
Carolina González Valenzuela
Imagínate por un momento que lo que has visto en los últimos años con la inteligencia artificial es solo el principio de algo que se prevé que sea mucho más grande.
En un abrir y cerrar de ojos, la humanidad ha pasado de máquinas de atención al cliente que apenas podían responder con frases simples a modelos de lenguaje que generan documentos completos, crean vídeos fake que parecen reales, y hasta escriben código. Y todo esto sin que muchos se hayan dado cuenta de lo rápido que ha ocurrido.
Ahora piensa en lo que pasaría si una empresa decidiera crear una IA que no solo hace lo que ya has visto, sino que además se dedica a crear y mejorar otras IA. Una especie de superentrenador que acelera el boom de la tecnología a un ritmo increíble. Eso es justo lo que algunos investigadores están advirtiendo que puede pasar muy pronto.
Puede parecer una locura y ciertamente lo es, pero es la conclusión a la que se ha llegado y que se ha plasmado en un informe llamado AI 2027, elaborado por expertos que han trabajado en grandes compañías de IA.
Según ellos, para dentro de uno o dos años el mundo podría tener sistemas tan avanzados que la supervisión humana será casi imposible. No porque no se quiera controlar esas máquinas, sino porque serán demasiado complicadas y rápidas para nosotros.
IA entrenando IA, un futuro no tan lejano
Que esto pueda suceder en cuestión de dos años tiene un cierto sentido geopolítico. En la actualidad, la competencia por el liderazgo en el desarrollo de la inteligencia artificial entre China y Estados Unidos está que arde.
«Existe una preocupación generalizada de que cualquier desaceleración en el desarrollo de la IA por motivos de seguridad podría dar una ventaja estratégica al adversario», comenta Matt Sheehan, miembro del Carnegie Endowment for International Peace. Añade que «esta desconfianza mutua está destinada a arraigarse aún más con el tiempo».
Esto no es solo una cuestión de orgullo nacional; se trata de poder económico, militar y geopolítico. El problema es que todo esto tiene sus peligros. Expertos en IA han advertido que se podría perder el control sobre estas tecnologías si no se es cuidadoso. Un mal uso de la IA podría tener consecuencias graves para la salud humana y la sociedad en general.
En una carrera así, nadie quiere frenar primero y perder la ventaja estratégica y claro, este ritmo podría llevar a una situación donde la IA no solo transforme la economía y el trabajo, sino también la política y la seguridad a nivel mundial, con decisiones tomadas por máquinas que ni siquiera los humanos entienden.
En pocas palabras, ahora la prioridad es ganar y no tanto la seguridad, algo que el informe antes comentado deja bien claro que es un error.
Por supuesto, también se comenta que aún hay tiempo para evitar lo peor. Para eso, explican que se necesitan que gobiernos, empresas y sociedad trabajen juntos, establezcan reglas firmes, de calidad, regulaciones internacionales y se premie la transparencia para que el desarrollo de la IA sea algo positivo.
¿Acabará la IA con los seres humanos?
Una pregunta bastante peliaguda, al igual que haya varios expertos en matemática que no lo descartan.
No se trata de imaginar robots asesinos, sino de calcular hasta qué punto esta tecnología, mal diseñada o fuera de control, podría llegar a suponer una amenaza real. Los expertos afirman: «Es muy difícil, aunque no imposible».
Lo primero que hay que tener claro es que los investigadores partieron desde el escepticismo. Es decir, no buscaban demostrar que la IA es peligrosa, sino todo lo contrario: querían ver si realmente era posible descartar que pudiera acabar con la humanidad, incluso en los peores escenarios.
A partir de aquí, intentaron ver si esa hipótesis se sostenía ante una investigación matemática. Para que un escenario se considerase una amenaza real, no bastaba con imaginar una catástrofe, sino que era necesario describir con precisión cómo se podría eliminar a todos los humanos, sin dejar supervivientes.
Y aunque suene poco probable, para analizarlo en serio consideraron factores físicos, biológicos, geográficos y sociales. El estudio, además, no se centró en si la IA quiere hacer daño, porque como ya sabes, estos sistemas no tienen objetivos por sí solos… a menos que sean programados para ello.
Tras ver los escenarios más habituales que suelen mencionarse como amenazas existenciales, los expertos descartaron varios de ellos como posibles vías de extinción total, donde las razones son técnicas, y en cierto modo, tranquilizadoras.
«No hay suficientes bombas, virus o gases para garantizar por sí solos la desaparición total de la humanidad», concluyen los expertos. Aunque todos esos escenarios parecen inviables, algunas combinaciones de factores podrían acercarse peligrosamente a un resultado extremo.
La pregunta no es si llegará esa gran catástrofe, sino si estaremos preparados para evitarla o al menos para minimizar sus daños.