La compañía de Sam Altman ha publicado su nueva guía para prevenir los riesgos que conlleva el desarrollo de las capacidades de la inteligencia artificial. OpenAI identifica los ciberataques y la manipulación bioquímica como algunos de los más «críticos».
Ultron riesgos inteligencia artificial OpenAI
Disney+/Marvel Studios
Por: Abraham Andreu
OpenAI ha compartido actualizaciones importantes de su Marco de Preparación, el programa interno que se encarga de recopilar e identificar el desarrollo de la inteligencia artificial, para evitar riesgos de todo tipo, incluso en seguridad nuclear a nivel mundial.
Gracias a él, la compañía de Sam Altman rastrea los principales riesgos creados por las nuevas capacidades de la IA, que pueden identificarse como «riesgos de daño severo», lo que implicaría una situación de daños a millones de personas, una catástrofe económica o, directamente, la muerte.
Con la actualización de este documento y sus procesos, OpenAI divide los riesgos asociados en categorías como ciberseguridad, el auto desarrollo de la IA o las posibilidades a nivel bioquímico.
«En cada área, desarrollamos y mantenemos un modelo de amenazas que identifica los riesgos de daños graves y establece umbrales que podemos medir para saber cuándo los modelos alcanzan la capacidad suficiente para plantear estos riesgos de forma significativa», explica OpenAI en el documento.
«No implementaremos estos modelos altamente eficaces hasta que hayamos establecido salvaguardas para minimizar suficientemente los riesgos asociados de daños graves», sentencia.
Además de esta evolución desmedida de los modelos de IA, OpenAI también enumera algunas necesidades para este entorno tan cambiante, como una mejor planificación y coordinación; tal y como reconoce la compañía, todavía la IA no puede suponer una grave amenaza para la seguridad digital o biológica.
Ahora bien, parece que la evolución más lógica pasa por estudiar este tipo de riesgos. Otra de las claves del plan de seguridad de OpenAI, precisamente, pasa por establecer diferentes grados de relevancia en función de los riesgos.
Así, bajo la etiqueta de «crítico» se pueden encontrar algunos de las posibles consecuencias de que la IA pierda el control, con situaciones sin precedentes para el ser humano a nivel mundial. Aquí se pueden encontrar la creación de nuevos agentes bioquímicos para causar enfermedades.
Aunque también la infección de dispositivos informáticos mediante ataques de día cero, aquellos que los equipos de ciberseguridad estudian sin tener ejemplos ocurridos en el pasado; bajo la etiqueta de «crítico», también aparece la autosuficiencia de la IA para aumentar sus recursos.
Por supuesto, hay que destacar que ante lo que se han denominado las «fronteras» de la IA, no solo ha sido OpenAI la que ha previsto este tipo de situaciones, ya que otras como Microsoft consideran también estos riesgos como severos para la humanidad.
En definitiva, el objetivo de OpenAI en este ámbito no es otro que identificar todos los tipos de riesgos, incluidos los más severos, que puede causar un modelo desalineado de IA.
«Además de un mal uso humano, aparecen riesgos cuando los propios modelos son capaces de ejecutar daños graves de forma autónoma, ya sea por la desalineación o subversión por parte de algún adversario», añade OpenAI.