Los proyectos de regulación de la inteligencia artificial
Desde que hace poco más o menos una década Nick Böstrom escribiera su fundacional “Superinteligencia”1, los especialistas primero y el resto de la humanidad después vienen sopesando los beneficios que podría aportar la inteligencia artificial al lado de los peligros que podría entrañar. Los primeros son evidentes: enormes ganancias en productividad2, la resolución de enigmas hasta ahora intratables para la ciencia e incluso la ampliación de la antroposfera -pues el ser humano podría proyectarse más allá de los límites espaciales que impone su penosa condición mortal-. Solo algunos ejemplos.
Las amenazas de la IA, sin embargo, están más sujetos a especulación y, desde luego, el debate. Se podrían secuenciar por orden de probabilidad. Así, se da por hecho que cambiará el mercado laboral y ya corren por la red listados e informes3 de ocupaciones que van a desaparecer como resultado del despliegue completo de la IA. Es posible, pero evitable, que la IA haga un manejo de los datos personales que viole algunas de nuestras disposiciones más queridas y universales. Pero lo que nos pone los pelos de punta es que termine por constituir un “evento extintivo” de la humanidad, suceso quizás improbable, pero de tal magnitud que, razonamos todos, cualquier precaución es poca.
Hay dos escenarios en los que la IA podría constituir una amenaza para la existencia del ser humano.
El más eminente y fabulado es el momento “Skynet”4, aquél en el que la IA toma consciencia de sí misma y quizás decide que somos una forma inferior y prescindible de vida, y acaso también una amenaza para su existencia. Y nos elimina. Es una eventualidad remota5, porque, por un lado, como sostuvo Roger Penrose6 una inteligencia cibernética equiparable a la humana se encontrará, precisamente, con la dificultad de crear una consciencia no biológica (y apenas comprendemos la biológica); por otro, se parte de una inferencia típicamente antropológica: extrapolamos fenómenos como la voluntad o el instinto de supervivencia, nativamente biológicos y, por tanto, evolutivos a estructuras de un orden distinto, como la IA.
El segundo escenario por el que habríamos de temer es más mundano y real: se trata una tecnología poderosa, muy difícil de controlar y en manos inadecuadas puede ser letal. Imagínese el uso militar (nuclear, por ejemplo) de la IA por un Estado como Corea del Norte o alguna organización mafiosa o terrorista.
El corazón del problema es la denominada “superinteligencia”, el momento en que la IA alcance, con consciencia o sin ella, niveles no ya fuera de nuestro control, sino -más importante- fuera de nuestra capacidad de comprensión7.
No es ciencia-ficción, me temo: de los modelos teóricos acertados de IA (machine learning + LLM o aprendizaje por refuerzo) sabemos cómo desencadenarlos y cómo funcionan grosso modo, pero hay una zona oscura que se ha dado en llamar el problema de la «explicabilidad” o de “transparencia”. En las redes neuronales se vinculan datos o representaciones de una forma que nosotros no llegamos a entender: es la caja negra de la IA.
Dada la magnitud de las amenazas, parecería que el mecanismo de regulación debiera ser internacional e incluso, como se ha propugnado, desembocara en la institución de una autoridad de control y sanción semejante al Organismo Internacional de la Energía Atómica (ONU).
No ha sido (todavía) así. La regulación legal de la IA es aún incipiente (algunas jurisdicciones aún están en fase de proyecto), fragmentaria (no contempla todos los asuntos antes descritos) y nacional (cada jurisdicción ha seguido su propio camino).
Leyes de la Inteligencia artificial
En efecto, a fecha de este artículo, sólo algunas de las grandes jurisdicciones tienen normas en vigor8, y aún éstas no cubren todo el espectro legal de la regulación de la inteligencia artificial. La mayoría ha optado por las genéricas “Directivas” (“guidelines”) de orden ético, esperando una suerte de autorregulación en el detalle9 o sólo se hallan en fase de proyecto o esquema (“blueprints”). En Estados Unidos, el actor principal de la IA a nivel tecnológico, conviven regulaciones de los estados federados10 con unas recomendaciones de la Casa Blanca11 de orden ético, por lo que por ahora parece orientarse al modelo de autorregulación.
España, obviamente, descansa en el marco de la UE12 y esta parece que sí se dirige a una norma vinculante y omnicomprensiva que, si llega a adoptarse, y dado el prestigio y peso de la UE en el comercio mundial, podría imponerse horizontalmente en el mundo -como ocurrió con el RGPD-. La UE no es, quizás, el actor tecnológicamente más puntero (hoy por hoy, lo son USA, China y Japón) en IA, pero tiene gran capacidad para establecer estándares.
Pues bien: tras adoptar las Directrices Éticas para una IA Fiable en 2019, la UE ha trabajado asiduamente para sacar adelante una regulación de la inteligencia artificial para todo el bloque que cristalizó en la Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión (Com/2021/206), hoy en fase de estudio y negociación en el Parlamento.
No es el objetivo de este artículo analizar pormenorizadamente la regulación de la ia proyectada de la UE, ya habrá tiempo de eso, sino de ofrecer una mirada general a la regulación comparada. Y ahí sí se pueden encontrar un elenco de grandes campos normativos comunes, una suerte de agenda regulatoria, que es la siguiente:
- Protección de datos y privacidad.
- Transparencia (crucial, visto el problema de la “caja negra”)
- No discriminación y equidad.
- Seguridad y solidez (para evitar ataques maliciosos).
- Responsabilidad y rendición de cuentas (esto va a ser un gran campo de batalla).
- Supervisión y gobernanza (en principio, como se ha dicho, particulares por jurisdicción, pero es muy posible que por la vía de tratados se ideen organismos supranacionales).
- Ética y derechos humanos.
Esta es la parte visible del iceberg. Seguro que el lector comprende con facilidad que, debajo y propulsado por el latente conflicto geopolítico hacia la supremacía del futuro, probablemente haya en este campo actividades no normativas que desconocemos y que quizás nunca llegaremos a conocer. Nótese que la agenda no recoge hoy por hoy la regulación de la Inteligencia Artificial en los usos militares. Eso estará reservado a las comisiones especializadas sometidas a las leyes de secreto oficiales y seguridad nacional. Secreto e IA: esa combinación sí genera cierta congoja.
En Las Palmas, a 26 de septiembre de 2023.
2 Podría añadir, se afirma, un 7% de crecimiento anual al PIB mundial. Fuente: (Goldman Sachs, 2023)3 Por todos, ver (World Economic Forum, 2023)
4 Por la película Terminator 2: (Cameron, 1991).
5 El gran especialista en IA español López de Mántaras (López de Mántaras, 2023) señala la distancia que hay aún hoy, junio 2023, para poder equiparar la inteligencia artificial a la inteligencia humana: la artificial hoy en uso es una inteligencia específica, no general (le falta “sentido común”) y es incapaz de distinguir nítidamente entre correlación y relación de causa-efecto.
6 (Penrose, 1989)
7Ese fenómeno, el de una IA superinteligente, se ha comparado con las singularidades en términos de física teórica, aquel evento en que las reglas de la física conocida quizás no apliquen.
8China y Japón. Ver un desglose del estado de regulación mundial en https://www.taylorwessing.com/en/interface/2023/ai—are-we-getting-the-balance-between-regulation-and-innovation-right/ai-regulation-around-the-world.
9 Notoriamente, el Reino Unido.
10 Un listado, aquí: https://www.ncsl.org/technology-and-communication/artificial-intelligence-2023-legislation.
11https://www.whitehouse.gov/ostp/ai-bill-of-rights/#applying.
12 Sin embargo, es de los estados miembros más activos: en junio de 2022, y en coordinación con la Comisión, hizo el primer “campo de pruebas” (sandbox) regulatorio de la IA de la UE, con objetivo experimental y aspiración de trasladar los resultados a otros estados miembros.
Trabajos citados
Bostrom, N. (2014). Superintelligence: paths, dangers, strategies. University of Oxford Press (OUP).
Brown, T. B. (2020). Language Models are Few-Shot Learners. In Advances in Neural Information Processing Systems (Vol. 33).
Cameron, J. (Director). (1991). Terminator 2: Judgment Day [Motion Picture].
Goldman Sachs. (2023, abril 5). Generative AI could raise global GDP by 7%. Retrieved from https://www.goldmansachs.com/intelligence/pages/generative-ai-could-raise-global-gdp-by-7-percent.html
López de Mántaras, R. (2023, febrero 14). Fundación Ramón Areces. Retrieved from Fundación Areces: https://www.youtube.com/watch?v=1EA7ZejUcJQ&ab_channel=FundacionAreces
McCarthy, J. (1960). Programs with common sense. In Proceedings of the Teddington Conference on the Mechanization of Thought Processes (pp. 756-91). Her Majesty’s Stationery Office.
Minsky, M. (1975). A framework for representing knowledge. In P. H. Winston, The Psychology of Computer Vision (pp. 211-277). McGraw-Hill.
Mnih, V. K. (2015). Human-level control through deep reinforcement learning. Nature(518(7540)), 529-533.
Penrose, R. (1989). The Emperor’s New Mind: Concerning Computers, Minds, and the Laws of Physics. Oxford: Oxford University Press.
Pineau, J. M. (2003). Towards robotic assistants in nursing homes: Challenges and results. Robotics and Autonomous Systems, 42(3-4), 271-281.
Rumelhart, D. E. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533-536.
Turing, A. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.
Watkins, C. J. (1992). Q-learning. Machine Learning(8(3-4)), 279-292.
World Economic Forum. (2023, mayo 5). Estos son los trabajos que se perderán y crearán a causa de la Inteligencia Artificial. Retrieved junio 2023, from https://es.weforum.org/agenda/2023/05/estos-son-los-trabajos-que-se-perderan-y-se-crearan-a-causa-de-la-ia/