En medio de un fuerte cuestionamiento a la inteligencia artificial, Demis Hassabis, máximo responsable de Deep Mind, la empresa dedicada a la IA propiedad de Alphabet (Google) comparó los efectos nocivos del cambio climático con el avance desmedido de la IA.
Curiosamente, Hassabis señaló que se debe actuar de inmediato para frenar los peligros de esta tecnología, entre los que se incluyen su posible uso para la creación de armas biológicas y la amenaza existencial que suponen los sistemas superinteligentes.
“La comunidad internacional tardó demasiado en coordinar una respuesta global efectiva a la crisis climática, y ahora estamos viviendo con las consecuencias. No podemos permitirnos el mismo retraso con la IA”.
Como para no quedar en meras acusaciones, Hassabis también deslizó una propuesta sobre el modelo en que se podría basar este sistema de supervisión de la IA.
“Creo que tenemos que comenzar con algo como el Panel Intergubernamental sobre Cambio Climático (IPCC), que se basa en el acuerdo científico y la investigación, y luego ir avanzando a partir de ahí”.
Mientras que los siguientes pasos, deberían ser “un equivalente de un Cern para la seguridad de la IA, que investigue sobre este aspecto, pero a nivel internacional. Y luego, tal vez algún día, haya algún tipo de equivalente de la OIEA -la Agencia Internacional de la Energía Atómica-, que realmente audite este tipo de cosas”.
Otras voces que se pronuncian
La idea de Hassabis no es la primera vez que se plantea. La semana pasada, Eric Schmidt, ex director ejecutivo de Google, y Mustafa Suleyman, cofundador de DeepMind, ya pidieron la creación de un panel estilo IPCC sobre IA.
Hassabis fue uno de los firmantes en mayo de una carta abierta advirtiendo que la amenaza de la IA debería considerarse un riesgo a escala social a la par de las pandemias y la guerra nuclear.
“Deberíamos empezar a pensar y a investigar ahora. Me refiero a ayer, en realidad”, dijo. “Por eso firmé, y mucha gente firmó, esa carta. Es porque queríamos poner de relieve que es un tema razonable sobre el que discutir”.
El CEO de Deep Mind se mostró especialmente preocupado por el posible desarrollo de inteligencia artificial general (AGI), sistemas con niveles de inteligencia humanos o superiores a los humanos que podrían evadir el control humano, aunque al mismo tiempo reconoció que pueden suponer un gran avance en campos como la medicina y la ciencia.
Tres retos por resolver de la IA
El riesgo de que el desarrollo de la IA esté dominado por un pequeño número de grandes empresas y gobiernos podría exacerbar la desigualdad y limitar la diversidad en las aplicaciones de la IA. Fomentar el desarrollo descentralizado y colaborativo de la IA es clave para evitar una concentración de poder.
La dependencia excesiva de los sistemas de IA puede conducir a una pérdida de creatividad, capacidad de pensamiento crítico e intuición humana. Lograr un equilibrio entre la toma de decisiones asistida por IA y la aportación humana es vital para preservar nuestras capacidades cognitivas.
La automatización impulsada por la IA puede provocar la pérdida de puestos de trabajo en varios sectores, sobre todo entre los trabajadores poco cualificados (aunque hay pruebas de que la IA y otras tecnologías emergentes crearán más puestos de trabajo de los que eliminarán).