El presidente ruso Vladimir Putin anunció el viernes un plan para aprobar una estrategia nacional para el desarrollo de la inteligencia artificial, subrayando que es esencial evitar un monopolio de Occidente.
En su intervención en una conferencia sobre IA celebrada en Moscú, Putin señaló que “es imperativo utilizar soluciones rusas en el campo de la creación de sistemas de inteligencia artificial fiables y transparentes que también sean seguros para los seres humanos”.
“El dominio monopólico de este tipo de tecnología extranjera en Rusia es inaceptable, peligroso e inadmisible”, dijo Putin.
Señaló que “muchos sistemas modernos, entrenados con datos occidentales, están destinados al mercado occidental” y “reflejan la parte de la ética, las normas de comportamiento y las políticas públicas occidentales a las que nos oponemos”.
Durante sus más de dos décadas en el poder, Putin ha supervisado una represión múltiple contra la oposición y los grupos de la sociedad civil y ha promovido “valores tradicionales” para contrarrestar la supuesta influencia occidental, políticas que se han vuelto aún más opresivas después que enviara tropas a Ucrania en febrero de 2022.
Los algoritmos occidentales
Putin advirtió que los algoritmos desarrollados por las plataformas occidentales podrían conducir a una “anulación” digital de Rusia y su cultura.
“Una inteligencia artificial creada de acuerdo con las normas y modelos occidentales podría ser xenófoba”, subrayó Putin.
“Los motores de búsqueda y los modelos generativos de Occidente suelen funcionar de forma muy selectiva y sesgada, no tienen en cuenta y, a veces, simplemente ignoran y anulan la cultura rusa”, añadió. “En pocas palabras, a la máquina se le asigna algún tipo de tarea creativa, y la resuelve utilizando únicamente datos en inglés, lo cual es conveniente y beneficioso para los desarrolladores del sistema. Y así, un algoritmo, por ejemplo, puede indicar a una máquina que Rusia, nuestra cultura, ciencia, música o literatura simplemente no existen”.
La caja negra de la IA
Las cuestiones relacionadas a sesgos y problemas en las IA ya están siendo discutidas hace un tiempo. Mientras el aprendizaje profundo (deep-learning) educa a las máquinas para procesar datos como el cerebro humano, la llamada “caja negra” que esconde las arbitrarias predicciones de los algoritmos de inteligencia artificial (IA) preocupa cada vez más a los expertos en este campo.
La “caja negra” aparece cuando los desarrolladores de estos sistemas dejan de comprender lo que ocurre en los callejones que abre la IA en su recorrido lógico, algo que obstaculiza el control de sus acciones.
Incluso, muchos temen que esta falta de transparencia de lugar a consecuencias irreversibles, especialmente si esta inteligencia sintética consigue habilidades para las que no fue preparada o adquiere total autonomía.
El director ejecutivo de Google, Sundar Pichai, indicó que esta capacidad de los programas de IA de generar habilidades u ofrecer respuestas de forma inesperada es lo que se conoce como la “caja negra”.
Diversas compañías y líderes mundiales comparten, por estos motivos, grandes preocupaciones.