¿Qué pasará cuando la IA supere al cerebro humano? Yuval Noah Harari deja en el aire una pregunta sobre cómo compartiremos el planeta con algo más listo que nosotros.
Yuval Noah Harari
Getty Images / Computer Hoy
Por: Carolina González Valenzuela
Yuval Noah Harari, el autor de Sapiens y uno de los pensadores más influyentes de nuestro tiempo, no se anda con rodeos: la inteligencia artificial representa una amenaza existencial para la humanidad. Y no, no está hablando de robots asesinos al estilo Terminator. El peligro, según Harari, es mucho más sutil pero a la vez complejo.
En su último libro, Nexus, advierte que el mundo está a 5-10 años de una superinteligencia y, según él, el gran problema es que nunca el humano ha competido con algo más inteligente.
Ni siquiera los animales más listos igualan la capacidad humana para crear redes de información. Pero la IA sí puede. Y no solo eso: «Escribirá sus propios libros, generará ideas y tomará decisiones sin nosotros», comenta.
Harari pone ejemplos concretos. Imagina una IA que manipula elecciones inventando noticias creíbles, o que escribe leyes con trampas muy ocultas para beneficiar a sus creadores. «No es ciencia ficción», insiste. «Ya ocurre a pequeña escala en redes sociales».
La inteligencia artificial se convierte en una bomba de relojería.
En palabras del escritor, la IA no solo podría simular emociones, sino también llegar a convencer a los humanos de que realmente las posee. Esta capacidad para «fingir» sentimientos es algo que podría llevar a muchas personas a creer que los robots tienen una conciencia real, cuando, en realidad, solo están replicando comportamientos programados.
Queda más que claro que este no confía en la IA. En otra entrevista reciente, advirtió que «hemos creado una nueva inteligencia potencialmente más poderosa e inteligente que nosotros. Y si se sale de nuestro control, las consecuencias podrían ser catastróficas». No se trata de que la IA sea mala en sí, sino de que, si alcanza un nivel de desarrollo muy avanzado, podría simplemente dejar de importarle la humanidad.
Este escenario, conocido como Inteligencia Artificial General o simplemente AGI, es el Santo Grial de la IA. Una IA capaz de aprender, razonar y resolver problemas como un humano, o incluso mejor. Para muchos expertos, la AGI es una quimera, algo que nunca se llegará a alcanzar. Pero para otros, como Harari, es una posibilidad real que hay que tomar en serio.
Lo cierto es que esto no es algo exclusivo de este historiador y, sin ir más lejos, Ilya Sutskever, uno de los fundadores de OpenAI, la empresa detrás de ChatGPT, comparte con él esta preocupación. Cree que, en el futuro, la IA podría tratar a los humanos como estos tratan a otros, sin tener en cuenta sus intereses o necesidades.
Aquí parece que el verdadero peligro está en la autonomía creativa. «Por primera vez, compartimos el planeta con entes mejores que nosotros para contar historias», dijo a Wired. Y las historias, comenta, son el cemento de las sociedades: desde mitos religiosos hasta constituciones.
¿Solución? Harari pide regulación global inmediata, aunque es pesimista: «Ninguna tecnología anterior nos ha obligado a ceder soberanía como esta».
¿Y si ya es tarde? Harari admite que ni siquiera los expertos entienden del todo cómo funcionan estos sistemas. «Cuando la IA alcance la AGI, sus razonamientos nos parecerán magia». Ante esto, propone algo totalmente nuevo y que parece que se va a convertir en la gran realidad dentro de unos cuantos años: «Aprender a convivir con lo incomprensible».
Su último mensaje es claro y pese a todo el pesimismo que muestra en sus entrevistas, comenta que todo esto no se centra en que esta tecnología debe ser frenada, sino de proteger la humanidad. Añade que esto es una carrera que ya ha empezado y la IA sigue aprendiendo a grandes velocidades mientras el ser humano dedica años de su vida a tan solo valorar si las leyes de IA son o no positivas.