Sam Altman descarta que la IA pueda ponerse en contra de la humanidad, pero igual tiene un plan B.
Sam Altman, presidente ejecutivo de la empresa Open IA, volvió a defender a su popular invención, ChatGPT. Mientras crecen los temores en torno al control de esta tecnología, el desarrollador descartó una vez más la posibilidad que la inteligencia artificial generativa algún día pueda ponerse en contra de la humanidad.
De hecho, el CEO de la compañía confesó que lleva consigo el equivalente al maletín nuclear del presidente de Estados Unidos, Joe Biden, capaz de apagar todos los servidores que albergan su IA, en caso de un apocalipsis.
En este caso, se trata de una mochila azul con la que el empresario e inversor de tecnología estadounidense aparece cada vez que viaja o aparece el público.
Qué hay en la mochila azul de Sam Altman
Incluso, el medio estadounidense Business Insider se atreve a asegurar que Altman cree en el apocalipsis y está preparado para él. “Me preocupo, por supuesto. Quiero decir, me preocupo mucho por eso”, afirmó.
Según reportan varios medios, una computadora Mac sería el “arma nuclear” con la capacidad de detener esta tecnología si sus intenciones se tornaran perversas.
Esto no hace más que demostrar el plan oculto de Altman por temor a una rebelión por parte de la Inteligencia Artificial. Y el contenido de esa mochila azul sería su principal respuesta.
Por ejemplo, en 2016, le dijo a The New Yorker que para un supuesto fin del mundo había guardado “armas, oro, yoduro de potasio, antibióticos, baterías, agua, máscaras de gas de las Fuerzas de Defensa de Israel y un gran terreno en el sur”.
Un grupo de científicos y líderes de la industria de la inteligencia artificial (IA) firmaron en mayo una declaración conjunta preocupante: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”.
Justamente Sam Altman fue uno de los principales referentes que firmaron esta declaración junto a personalidades como Demis Hassabis, director ejecutivo de Google DeepMind, Dario Amodei, de Anthropic, entre otros.
Este tipo de planteo responde a lo que en el campo se denomina “riesgo existencial” de la inteligencia artificial.
“La idea de riesgo existencial tiene que ver con un concepto mal fundado, que implica que una inteligencia superior a la humana podría tomar decisión de extinguir a la humanidad. Un poco va en la línea de la película Terminator y el programa Skynet, que toma conciencia de sí y decide volverse contra los humanos”, explicó a Clarín Javier Blanco, Doctor en Informática por la Universidad de Eindhoven, Holanda.
Lo cierto es que tanto para Altman como para otros gurúes de la inteligencia artificial es un territorio aún inexplorado y a muchos les preocupa que en algún momento esta tecnología supere al ser humano, que no ocultó sus temores por la amenaza que podría representar para el mundo.
SL