Le pedí a ChatGPT que me mostrara los peligros de la IA y me dejó helado: «Esto pasará en menos de 5 años».
El chatbot advierte que es necesario establecer medidas urgentes de regulación para evitar que la inteligencia artificial evolucione y termine representando un riesgo para la sociedad.
Le pedí a ChatGPT que me mostrara los peligros de la IA y me dejó helado: «Esto pasará en menos de 5 años»
Imagen generada con IA
La inteligencia artificial se ha convertido en una herramienta cotidiana, donde millones de personas la utilizan cada día para escribir textos, generar imágenes, traducir idiomas o incluso escribir música. Lo que hace poco parecía imposible, hoy está al alcance de cualquiera con un clic.
Los ejemplos son cada vez más amplios, con asistentes virtuales que responden en segundos, modelos de IA capaces de programar, sistemas médicos que colaboran en diagnósticos o plataformas capaces de convertir una foto en un vídeo. Todo esto ya existe y sigue creciendo sin freno.
El avance es tan rápido que incluso los propios desarrolladores reconocen que les cuesta prever todas sus consecuencias. Sectores como la educación, las empresas, la investigación o el entretenimiento ya dependen en buena medida de estas tecnologías.
Sin embargo, junto al entusiasmo aparece también la preocupación y, para entenderlo con claridad, le pedí a ChatGPT que identificara los principales riesgos de la IA generativa. Su respuesta fue directa y, en cierto modo, alarmante: «Esto pasará en menos de 5 años».
Los fraudes y el robo de información
La inteligencia artificial ya permite clonar voces, generar vídeos e imágenes imposibles de diferenciar de lo auténtico. Lo preocupante es que estas técnicas, que antes requerían recursos avanzados, pronto estarán al alcance de cualquiera.
Eso abre la puerta a manipular elecciones, arruinar reputaciones personales o incluso ejecutar fraudes masivos con gran facilidad. El fenómeno de los deepfakes avanza sin freno y su uso se ha vuelto cada vez más común en redes sociales.
Lo que hoy se percibe como un truco curioso o un entretenimiento podría transformarse en un arma política y económica de enorme alcance. Su capacidad de engañar y manipular la información convierte esta tecnología en uno de los mayores riesgos emergentes para la seguridad digital.
Se eliminarán miles de trabajos
Durante años se creyó que la inteligencia artificial solo desplazaría tareas rutinarias o de bajo valor. Sin embargo, el salto tecnológico de los últimos meses demuestra que apunta mucho más alto.
Profesiones como la programación o la medicina ya empiezan a ver cómo parte de sus funciones son asumidas por sistemas entrenados para analizar datos, redactar informes o proponer diagnósticos con rapidez y una precisión cada vez mayor.
Cabe señalar que el verdadero riesgo no está en la pérdida de trabajos, sino en la posibilidad de una ola de desempleo sin precedentes. Miles de empleos podrían desaparecer en poco tiempo, y todavía no existen planes claros para amortiguar ese impacto.
Gobiernos, empresas, así como sindicatos se enfrentan al reto de redefinir el mercado laboral antes de que la automatización deje a millones de personas en una situación de vulnerabilidad.
El monopolio de la inteligencia artificial
El desarrollo de la IA no está distribuido entre miles de compañías, universidades o centros de investigación. Los modelos más potentes y con mayor influencia están en manos de un pequeño grupo de las grandes tecnológicas.
OpenAI, Google, Microsoft o Anthropic son los máximos responsables en la actualidad. En la práctica, esto significa que son estas corporaciones quienes deciden cómo se accede a la tecnología, qué uso puede hacerse de ella y en qué condiciones.
Esa concentración de poder plantea un dilema que trasciende lo empresarial. Por ejemplo, si la soberanía digital de un país termina dependiendo de compañías privadas con intereses propios, el equilibrio global puede alterarse.
Por ello, la falta de supervisión pública abre la puerta a que decisiones críticas sobre privacidad, seguridad o economía se tomen en despachos corporativos y no en instituciones democráticas, con consecuencias difíciles de revertir.
Los modelos de IA tomarán las decisiones
El verdadero riesgo no está en que un chatbot tenga conciencia, sino en que opere a una escala que ningún humano puede supervisar en tiempo real. Un error en un sistema de defensa, en una red energética o en un mercado financiero podría desencadenar un efecto dominó con consecuencias globales en apenas segundos.
La velocidad con la que estos modelos procesan datos y toman decisiones supera con creces nuestra capacidad de reacción. En un escenario así, los fallos ya no serían incidentes aislados, sino crisis sistémicas difíciles de contener una vez activadas.
Artículo relacionado: Grok 4, el chatbot con IA que Elon Musk está moldeando a su gusto, hace saltar las alarmas de los expertos: «Este es el comienzo de una larga batalla»
ChatGPT insiste en que no hablamos de escenarios lejanos, sino de un futuro cercano. Muchos de los riesgos asociados a la inteligencia artificial podrían hacerse realidad en menos de cinco años si no se toman medidas preventivas.
El ritmo del desarrollo es tan rápido que los sistemas actuales ya superan la capacidad de respuesta de gobiernos e instituciones. No obstante, el gran problema es que la regulación avanza con una lentitud desesperante frente a la velocidad de la innovación.
Mientras los ingenieros presentan modelos cada vez más potentes, la política aún discute cómo encajarlos en marcos legales y éticos. Si no se actúa de forma urgente, lo que hoy es un avance prometedor puede convertirse en una amenaza que golpee directamente a la sociedad que lo creó.