En la película “Tierras de penumbra”, dirigida por Richard Attenborough, el profesor Lewis (Anthony Hopkins) se refería en sus conferencias a que “el sufrimiento es el cincel que Dios emplea para perfeccionar al hombre”.
En otro orden -más festivo- de cosas, se dice que a los que somos de Bilbao nos asiste el derecho de nacer en cualquier parte. Y aunque yo he nacido (“me nacieron”, como dice el poeta Antonio Giménez-Pericás) en el ensanche bilbaino, me cumple reivindicar mi derecho a ser caraqueño, sólo para poder llamar a Antonio Ledezma “alcalde” de mi ciudad.
Mi regidor preferido vino al mundo en el mismo año que yo, y acredita sobradamente la dignidad de los hombres que son de una pieza, de esos que, incluso antes de recibir el cincel divino del sufrimiento al que me refería arriba, ya habían sido modelados y, por eso, servirían como referente de coherencia y entrega a sus gentes, en la incesante refriega por la dignidad de los ciudadanos, que es esencia inseparable de la libertad.
Antonio -mi alcalde- me convocaba en los primeros y tórridos días del julio madrileño a un acto sobre Inteligencia Artificial, ese producto de las nuevas tecnologías que algunos consideran una oportunidad y otros -sucesores seguramente de los liberticidas de todos los tiempos- están ya reclamando su prohibición.
Acudí a la sede central del despacho de abogados Cremades -en la que se desarrollaría el acto- para encontrarme con la agradable sorpresa de que en él tomarían la palabra tres jóvenes panelistas y una también joven moderadora.
Me interesa ahora -y sin hacer de menos a los restantes- referirme al exiliado cubano Yunior García. Yunior es un dramaturgo de palabra brillante. Además, fue promotor de la plataforma “Archipiélago”, que organizó las más importantes movilizaciones pacíficas en la isla después de muchos años de represión a cargo del régimen.
Sólo con esos atributos, Yunior es una persona que reclamaría la atención de cualquiera. Quizás en alguna otra ocasión tenga la oportunidad de conocer su opinión acerca de las vicisitudes de su lucha, pero en esta ocasión, Yunior comparecía para hablarnos de Inteligencia Artificial.
Y sus reflexiones no me defraudarían: El problema que existe con la IA -diría poco más o menos- no es que esas tecnologías, esos robots, nos suplanten, que incluso nos lleguen a sustituir…, el problema es que nosotros mismos nos convirtamos en robots.
Pondría Yunior el gráfico ejemplo del “Photoshop”. Yo mismo no sé muy bien si soy yo mismo u otro yo, si las facciones que presento en mi perfil de WhatsApp se corresponden conmigo o son en realidad una fabricación de mí mismo…
Y no sólo eso es así respecto de la imagen, lo es también en relación con su contenido: el gregarismo -que es tendencia habitual en cualesquiera grupos humanos- se ve acentuado por el desarrollo de las redes sociales, especialmente en los adolescentes y jóvenes. La revista Kubernética asegura que “en lugar de cuestionarnos ‘’quién soy’, nos planteamos ‘quiero ser como él o ella’…”
Pero volvamos a la Inteligencia Artificial. Como escriben Henry Kissinger, Eric Schmidt y Daniel Huttenlocher (La era de la IA: y nuestro futuro humano), “si bien los logros tecnológicos de la era de la razón han sido significativos, hasta hace poco habían sido lo suficientemente esporádicos como para reconciliarse con la tradición. Las innovaciones se han caracterizado como extensiones de prácticas anteriores: las películas eran fotografías en movimiento, los teléfonos conversaciones a través del espacio y los automóviles carruajes que se movían rápidamente en los que los caballos eran reemplazados por motores medidos por su ‘caballos de fuerza’ (‘horse power’). Asimismo, en la vida militar, los tanques eran caballería sofisticada, los aviones artillería avanzada, los acorazados fuertes móviles y los portaaviones pistas de aterrizaje móviles. Incluso las armas nucleares mantuvieron la implicación de su apodo, armas, cuando las potencias nucleares organizaron sus fuerzas como artillería, enfatizando su experiencia previa y comprensión de la guerra”.
Las nuevas tecnologías que la investigación aportaba al siglo XX no constituían, por lo tanto, un salto cualitativo respecto de las prácticas que habían sido lugar común en los siglos anteriores. Las que provienen del actual avance técnico son ya totalmente diferentes, nos sitúan en un espacio distinto al que hemos sido siquiera incapaces de rebautizar. La misma expresión de “Inteligencia Artificial” nos reconduce a un elemento, la inteligencia, que poco tiene que ver con la definición ortodoxa de “inteligencia”, que es, según la RAE la “facultad de la mente que permite aprender, entender, razonar, tomar decisiones y formarse una idea determinada de la realidad”; porque en este ámbito no existe ‘mente’ alguna, salvo que adjudiquemos a ese constructo de la máquina lo que es consustancial al ser humano.
Señalan los citados autores que “el mundo medieval tenía sus patrones agrarios feudales, su reverencia por la Corona y su orientación hacia las elevadas alturas de la torre de la catedral. La era de la razón tuvo su ‘cogito ergo sum’ y su búsqueda de nuevos horizontes y, con ella, nuevas afirmaciones dentro de las nociones de destino tanto individuales como sociales. La era de la IA aún tiene que definir sus principios organizativos, sus conceptos morales o su sentido de aspiraciones y limitaciones”. Sin embargo, me atrevería a discrepar de estos preclaros opinadores, afirmando que a este nuevo mundo no le interesa el orden, sino su contrario: la inestabilidad; abraza la incertidumbre y el cortoplacismo con el mismo afán que las generaciones pasadas reclamábamos pautas que ordenaran la convivencia.
Hemos pasado, por lo tanto, a una situación significativamente diferente. Según aseguran los citados autores: “cuando la información se sitúa en un contexto, se convierte en conocimiento; cuando el conocimiento puede llegar a modificar las convicciones, se convierte en sabiduría”.
Pero el mundo digital tiene poca paciencia para la sabiduría -nos advierten-; sus valores están formados por la aprobación, no por la introspección. Desafía entonces la propuesta de la Ilustración por la cual la razón es el elemento más importante de la conciencia. En la misma medida en la que las restricciones se han impuesto históricamente a la conducta humana por la distancia, el tiempo y el idioma, el mundo digital nos ofrece, como respuesta, la conexión. Estar, permanecer en todo tiempo conectados es la propuesta -añadiría yo-, no importa lo que transporte, lo que viaje, a través de esta vinculación. Si Marshall McLuhan decía que “el medio es el mensaje”, los nuevos tiempos tecnológicos nos explican que las redes sociales han sustituido a las viejas religiones: Dios ha sido reemplazado por una larga cadena que nos engarza a todos.
Me refería a Dios. Convendría entonces referirse a la idea de la moralidad, de la ética, de los valores y principios que emanaban de las viejas religiones. Esa dimensión ética que no es posible reclamar de la Inteligencia Artificial, según los citados autores. Ésta sencillamente aplica su método y produce un resultado, ya sea, desde nuestro humano punto de vista, trivial o significativo, positivo o negativo. La Inteligencia Artificial no es capaz de obtener las conclusiones que se derivan de sus acciones, depende de los seres humanos para decidir. Somos nosotros, por lo tanto, quienes debemos regular el uso de estas tecnologías. Derrotada la Ilustración -diría yo-, que prescribía el triunfo de la razón, volveremos entonces a su imperio una vez más. La pregunta -se trata de una cuestión aterradora- es si todavía es posible ordenar un ámbito tan nuevo como es éste, tan líquido que se diría equivalente al agua que se nos escapa de las manos.
Los autores se preguntan acerca de la posibilidad de una especie de autorregulación. ¿Serían capaces de dar un nuevo salto cualitativo las tecnologías de la IA? Esto es, ¿podrían llegar a codificarse ellas mismas sin necesitarnos a los seres humanos para ello? No deja de ser una especulación, pero los responsables del ensayo consideran que, “algún día, las IA podrán escribir su propio código. Por ahora, los esfuerzos para diseñar tales ingenios son incipientes y especulativos. Pero, incluso, entonces, no serían autorreflexivas.
Quizás convendría volver de nuevo a la ficción de lo ya inventado por el ser humano en este sentido. Algo así como preguntarse, como lo haría Arthur C. Clarke, en la versión de Stanley Kubrick de su historia “2001, una odisea del espacio”, si el ordenador “Hal 9000” podría haberse auto-programado de manera que fuera capaz de frenar él mismo sus impulsos asesinos.
Lo cierto es que caminamos por un territorio inexplorado, apasionante y enigmático a la vez “En menos de una generación -nos advierten los responsables del citado trabajo-, las plataformas de red más generalizadas han reunido a un conjunto de usuarios más grande que las poblaciones de la mayoría de las naciones, e incluso de algunos continentes. Sin embargo, esas grandes masas tienen fronteras más difusas que las de la geografía política, y las plataformas de redes las gestionan grupos con intereses que pueden diferir de los de una nación. Los operadores de plataformas de red no necesariamente piensan en términos de prioridades gubernamentales o de estrategias basadas en los intereses nacionales, particularmente si esas prioridades y estrategias pueden entrar en conflicto con el servicio a sus clientes. Dichas plataformas de red pueden albergar o facilitar interacciones económicas y sociales que superan -en número y escala- las de la mayoría de los países, a pesar de que las plataformas no hayan formulado una política económica o social como lo habría hecho un gobierno. Por lo tanto, aunque funcionan como entidades comerciales, algunas plataformas de red se están convirtiendo en actores geopolíticamente significativos en virtud de su escala, función e influencia”. Sólo nos quedaría -para completar la afirmación- ponerle nombres y apellidos a las empresas analizadas por el índice Nasdaq… no son, en consecuencia, los gobiernos, elegidos democráticamente, los que toman ahora las decisiones que afectan a nuestro futuro, los que diseñan esos aparatos tan capaces de hacerlo todo, son los accionistas de esas empresas, aún más, los mega-millonarios que toman las decisiones que afectan a su gestión, quienes podrán tomar el control de una humanidad entregada ciegamente a ellas.
En un caso concreto, el de GPT-3 (Generative Pre-trained Transformer 3), según afirman los autores del ensayo, “ha desarrollado la capacidad de crear personalidades sintéticas, usarlas para producir un lenguaje que es característico del discurso de odio y entablar conversaciones con usuarios humanos para inculcar prejuicios e incluso incitarlos a la violencia. En el caso de que se desplegara una Inteligencia Artificial de este tipo para difundir la división a gran escala, es posible que los seres humanos por sí solos no seamos capaces de combatir ese resultado”. No nos bastaríamos, por lo visto, las personas para crear la desunión entre nosotros mismos, a pesar de la caterva de dirigentes que nos gobiernan y de los líderes de todo orden que se encuentran al frente de las organizaciones…
En lo que sí ‘ayuda’ -permítanme la ironía- la IA es en el ámbito de la desinformación. La llamada “IA generativa” puede crear grandes cantidades de información falsa pero creíble. La desinformación facilitada por la IA y la guerra psicológica, incluido el uso de personajes, imágenes, vídeos y discursos creados artificialmente, está a punto de producir nuevas vulnerabilidades inquietantes, particularmente para las sociedades libres. Manifestaciones ampliamente compartidas han producido imágenes aparentemente realistas de figuras públicas que afirman cosas que nunca han dicho. En teoría, la IA podría usarse para determinar las formas más efectivas de entregar este contenido sintético generado por ella a las personas, adaptándolo a sus preferencias y expectativas. Si la imagen sintética de un líder nacional es manipulada por un adversario para fomentar la discordia o emitir instrucciones engañosas, ¿podrá el público -o incluso otros gobiernos y funcionarios- discernir el engaño a tiempo?”, nos cuestionamos con los autores.
Este doble uso de la mayoría de las tecnologías de IA, nos obligará igualmente a comprender sus límites. Si surge una crisis, será demasiado tarde para comenzar a discutir sobre estos asuntos. Una vez empleada en un conflicto militar, la velocidad de la tecnología casi garantiza que impondrá resultados a un ritmo más rápido que el que puede desarrollar la diplomacia. Se debe emprender una discusión sobre las armas cibernéticas y de IA entre las principales potencias, aunque sólo sea para desarrollar un vocabulario común de conceptos estratégicos y algún sentido de las líneas rojas de cada uno. La voluntad de lograr la restricción mutua de las capacidades más destructivas no debe esperar a que surja la tragedia. A medida que la humanidad se propone competir en la creación de armas nuevas, inteligentes y en evolución, la historia no perdonará el fracaso al intentar establecer límites. En la era de la Inteligencia Artificial, la búsqueda perdurable de la ventaja nacional debe basarse en una ética de preservación humana, y no de su destrucción.
En ámbitos específicos, las personas podrían más bien preferir la IA, ante las limitaciones de la mente humana. Lo cual -siempre según los citados autores- podría incitar a muchos o incluso a la mayoría de los seres humanos a retirarse a sus ámbitos individuales. En este escenario, el poder de la IA, combinado con su predominio, invisibilidad y opacidad, produciría serias dudas sobre el futuro de las sociedades libres.
Si el ciudadano transfiere la responsabilidad de buena parte de sus decisiones a este procedimiento, su capacidad de elección quedará seriamente restringida, parecen advertirnos.
Se refieren los autores a la normativa que está poniendo en marcha la UE al respecto, buscando equilibrar los valores europeos como la privacidad y la libertad con la necesidad de desarrollo económico y el apoyo de las empresas de IA creadas en Europa. Las regulaciones trazan un curso entre el de China, donde el estado está invirtiendo fuertemente en IA, incluso con fines de vigilancia, y el de los Estados Unidos, donde la I+D de IA se ha dejado en gran medida al sector privado. El objetivo de la UE es controlar la forma en que las empresas y los gobiernos utilizan los datos y la IA y facilitar la creación y el crecimiento de las empresas europeas de IA. El marco regulatorio incluye evaluaciones de riesgo de varios usos de la IA e impone límites o incluso prohibiciones sobre el uso gubernamental de ciertas tecnologías consideradas de alto riesgo, como el reconocimiento facial (aunque éste tiene usos beneficiosos, como encontrar personas desaparecidas y combatir la trata de personas). Sin duda, habrá un amplio debate y modificación del concepto inicial, pero su primera forma es un ejemplo de una sociedad que determina el rango de limitaciones de la IA que cree que le permitirá avanzar en su forma de vida y futuro.
A este respecto, los autores Ian Bremmer y Mustafa Suleyman, han escrito para la revista Foreign Affairs de septiembre de este año, con el título, “La paradoja del poder de la IA. ¿Pueden los estados aprender a gobernar la inteligencia artificial antes de que sea demasiado tarde?”:
“El desafío es claro: diseñar un nuevo marco de gestión pública adecuado a esta nueva tecnología. Para que sea posible un marco global de la IA, el sistema internacional debe superar sus concepciones tradicionales de soberanía y ofrecer un lugar en la mesa a esas empresas. Es posible que estos actores no hayan obtenido legitimidad alguna de un contrato social, de la democracia o de la provisión de bienes públicos, pero sin ellos, la gestión pública eficaz de la IA no tendrá ninguna posibilidad. Éste es un ejemplo de cómo la comunidad internacional deberá repensar los supuestos básicos sobre el orden geopolítico”. Pero no es el único.
‘Un desafío tan inusual y apremiante como la IA -continuan éstos autores en el Foreign Affairs citado- exige de una solución original. Antes de que los definidores de las políticas puedan comenzar a elaborar una estructura regulatoria adecuada, deberán acordar los principios básicos sobre cómo gobernar la IA. Para empezar, cualquier marco de gobernanza deberá ser precautorio, ágil, inclusivo, impermeable y específico. Sobre la base de estos principios, los hacedores de políticas deberían crear al menos tres regímenes de gestión superpuestos: uno para establecer hechos y asesorar a los gobiernos sobre los riesgos que plantea la IA, otro para prevenir una carrera armamentista total entre ellos, y un tercero para gestionar las fuerzas diferenciadoras de una tecnología cualitativamente singular a todo lo que el mundo ha visto hasta ahora.
‘Además de ser preventiva y ágil -concluyen-, la gestión pública de la IA debe ser inclusiva, invitando a la participación de todos los actores necesarios para regularla en la práctica. Eso significa que esta gestión no puede estar centrada exclusivamente en el estado, ya que los gobiernos no entienden ni controlan la IA. Las empresas privadas de tecnología pueden carecer de soberanía en el sentido tradicional, pero ejercen poder y gerencia reales, que son incluso determinantes, en los espacios digitales que han creado y gobiernan de manera efectiva. A estos actores no estatales no se les deben otorgar los mismos derechos y privilegios que los estados, que son internacionalmente reconocidos, en la medida en que actúan en nombre de sus ciudadanos. Pero deberían formar parte de cumbres internacionales y signatarios de cualquier acuerdo sobre IA”.
No creo posible, por otro lado, una pretendida ética de la Inteligencia Artificial -como consideran Kissinger “et alía”-. Su propia dinámica es imparable y su utilización permite muy diversos ámbitos de intervención, algunos positivos, otros directamente invasores de la esfera de la libertad individual. En consecuencia, sólo es posible confiar en la intervención externa del legislador.
Por otra parte, los autores se formulan una serie de interesantes cuestiones, partiendo de la base, según la cual, para las sociedades, los dilemas que plantea la IA son profundos. Gran parte de nuestra vida social y política ahora transcurre en plataformas de red gestionadas por la IA. Este es especialmente el caso de las democracias, que dependen de estos espacios de información para el debate y el discurso que forman la opinión pública y cada vez más la confieren de legitimidad. ¿Quién o qué instituciones deberían definir el rol de la tecnología? ¿Quién debe regularlas? ¿Qué roles deben desempeñar las personas que utilizan la IA, las corporaciones que la producen y los gobiernos de las sociedades que lo despliegan?
La única manera de abordar tales preguntas es la de buscar formas de hacer auditable a la propia IA, es decir, conseguir que sus procesos y conclusiones sean verificables y corregibles. A su vez, la formulación de las correcciones que sean necesarias dependerá de la elaboración de principios que respondan a las formas de percepción y toma de decisiones que adopte la IA. La moralidad, la voluntad, incluso la causalidad, no encajan claramente en un mundo de IA que se rige por la autonomía. El asunto no es baladí, de ninguna manera. Nos podríamos plantear esas mismas preguntas en relación con una buena parte de los demás elementos de la sociedad, desde el transporte hasta las finanzas y la medicina.
En particular, en el ámbito de la defensa y la seguridad, para los autores, la difusión de la IA a través de las funciones de defensa de los gobiernos alterará el equilibrio internacional y los cálculos que en gran medida lo han sostenido en nuestra era. Las armas nucleares son costosas y, debido a su tamaño y estructura, difíciles de ocultar. La IA, por otro lado, se ejecuta en computadoras ampliamente disponibles. Debido a la experiencia y los recursos informáticos necesarios para entrenar modelos de aprendizaje automático, la creación de una IA requiere los recursos de grandes empresas o estados-nación. Debido a que la aplicación de IA se lleva a cabo en computadoras relativamente pequeñas, esta técnica resultará ampliamente disponible, incluso en formas no previstas. ¿Estarán las armas habilitadas por la IA en última instancia disponibles para cualquier persona con una computadora portátil, una conexión a Internet y la capacidad de navegar por sus elementos oscuros? ¿Concederán los gobiernos poderes a los diversos actores susceptibles de utilizarlos para que lo hagan con el fin de acosar a sus oponentes? ¿Diseñarán los terroristas ataques a través de la IA? ¿Serán capaces, de forma mendaz, de atribuirlas a estados u otros actores?
Por el momento, la guerra convencional -la que conocimos en las grandes contiendas europeas de la Primera y Segunda guerras mundiales-, no parece haber cambiado gran cosa en la actualidad. La presente invasión de Ucrania por Rusia no se está desarrollando a través de grandes cambios tecnológicos, según señalaba el Financial Times recientemente. Pero eso no supone que los métodos de la IA no puedan generar también un salto cualitativo en los procedimientos bélicos; por el momento, el uso de drones -desconocidos hasta este conflicto bélico como armas de guerra- está siendo ampliamente utilizado por los contendientes, sin el riesgo para los pilotos y el enorme coste que suponen los aviones para las naciones en conflicto.
La siguiente afirmación de los autores no debería dejarnos indiferentes. Para ellos, las armas cibernéticas, que son capaces tanto de discriminación como de destrucción masiva, borran esta barrera. A medida que la IA se asigna a ellas, estas armas se vuelven más impredecibles y potencialmente más destructivas. Simultáneamente, mientras se mueven a través de las redes, estas armas desafían el conocimiento de su origen, no sabemos quién las manipula, quién dirige sus objetivos. También desafían la detección -a diferencia de las armas nucleares, pueden llevarse en memorias USB- y amplían la capacidad de destrucción. Y, de alguna forma, pueden, una vez desplegados, ser difíciles de controlar, en particular dado el carácter dinámico y emergente de la IA.
Nos adentramos, por lo tanto, en un territorio desconocido, dotado con perspectivas de gran utilidad para el ser humano, pero también con una posibilidad cierta de generar desastres que no puedan evitarse por ese mismo ser humano que renuncie a su control. El problema no consiste sólo en el cambio de vida que suponga, la adaptación a los procedimientos de trabajo o la sustitución de la fuerza de trabajo del hombre por la máquina -con resultar ésta una ecuación de indispensable consideración-. Por eso, en un mundo en conflicto, como es éste, no cabe otra solución que la cooperación. A través de ella, la IA podrá convertirse en un procedimiento que nos facilite la vida; sin colaboración entre las grandes potencias, la destrucción asoma como uno de los peligros que pueden producirse en un horizonte más o menos cercano.
Yunior García no dejaba de tener razón en las ideas que desplegaba en el acto organizado por mi alcalde Ledezma: sustituidos por los robots, ya ni siquiera somos nosotros mismos, sino los avatares que nosotros fabricamos, o los que nos fabrican los robots. Una locura, en suma.
No hay comentarios:
Publicar un comentario