Mientras un grupo de expertos sostiene que la inteligencia artificial (IA) es apenas un software, otros ven en estos avances un peligro que amenaza a la humanidad. En medio de esta tensión, OpenAI, la creadora de ChatGPT, formó una comisión que evalúa los “riesgos catastróficos” de su sistema.
Según se detalla en el blog de la compañía, se ha convocado a un grupo de expertos bautizado Preparedness (Preparación) cuyo objetivo consiste en respaldar la seguridad de los sistemas de IA de alta capacidad y evitar los “riesgos catastróficos” derivados de una explotación indebida.
Entre otros aspectos, ayudará a rastrear, evaluar, pronosticar y proteger contra riesgos catastróficos que abarcan diversas categorías, entre las que se encuentran las amenazas químicas, biológicas, radiológicas y nucleares, más la ciberseguridad.
En otras palabras, evitar que la IA que engañe a los humanos y acceda al control de armamento letal, al mismo tiempo que protegen la seguridad informática de la firma.
Este grupo está liderado por Aleksander Madry, director del centro de aprendizaje automático del MIT, y que actualmente desempeña el rol de ‘jefe de preparación’. Entre sus tareas se encuentran no solo desactivar cualquier futuro peligro de la IA, sino pronosticarlos y brindar protección contra ellos.
“Creemos que los modelos de IA de frontera, que superarán las capacidades actualmente presentes en los modelos existentes más avanzados, tienen el potencial de beneficiar a toda la humanidad”, escribió OpenAI, admitiendo que los modelos de IA también plantean “riesgos cada vez más graves”.
Este equipo incluirá el desarrollo y mantenimiento de una serie de premisas bautizadas como Política de desarrollo basado en riesgos (RPD). El principal enfoque será detallar de forma concreta cómo crear evaluaciones para modelos de IA y herramientas de monitoreo de las mismas.
Debatir los riesgos que se asumen
Los riesgos potenciales asociados a la inteligencia artificial se han puesto de relieve con frecuencia, junto con los temores de que la IA tenga el potencial de llegar a ser más inteligente que cualquier ser humano.
A lo largo de 2023, varios expertos debatieron sobre este punto. Michio Kaku, apodado “el padrino de la IA”, afirma que este software no podría conquistar el mundo. Por otro lado, muchas voces han advertido que la IA supone un riesgo de extinción para la humanidad.
Incluso Demis Hassabis, máximo responsable de Deep Mind, la empresa dedicada a la IA propiedad de Alphabet (Google) comparó los efectos nocivos del cambio climático con el avance desmedido de la IA.
A pesar de reconocer estos riesgos, empresas como OpenAI han estado desarrollando activamente nuevas tecnologías de IA en los últimos años, lo que a su vez ha suscitado nuevas preocupaciones.
En mayo de 2023, la organización sin ánimo de lucro Center for AI Safety publicó una carta abierta sobre el riesgo de la IA, en la que instaba a la comunidad a mitigar los riesgos de extinción de la IA como una prioridad global junto con otros riesgos a escala social, como las pandemias y las guerras nucleares.