Artificial Intelligence Word Cloud

Inteligencia Artificial y especie humana

En un reportaje reciente del New York Times se hacía referencia a una conversación sostenida en 2015 entre Elon Musk y Larry Page, fundador y durante varios años timonel de Google. La misma, presenciada por una treintena de personas, giraba en torno al futuro de la Inteligencia Artificial (IA). Mientras Musk expresaba su temor de que la IA pudiese liberarse del control humano y llegar a destruir algún día a la humanidad, Page insistía en un futuro en el que los humanos se fusionasen con las máquinas de IA. Al caldearse la discusión, Page acusó a Musk de dar prioridad a la especie humana por sobre las formas digitales de vida del futuro. Para el fundador de Google, el colocar a la humanidad por encima de la IA era, al parecer, expresión de clara miopía intelectual (C. Metz, K. Weise, N, Grant and M. Isaac, “Ego, Fear and Money: How A.I. Fuse Was Lit”, The New York Times, December 3, 2023).
Liñas de investigación Relacións Internacionais
Apartados xeográficos Outros

Inteligencia Artificial Generativa

La discusión anterior se enmarca bien con lo ocurrido hace pocas semanas al interior de OpenAI, la empresa pionera de lo que se denomina Inteligencia Artificial Generativa. Es decir, una IA susceptible de generar sus propios contenidos, incluyendo textos, imágenes, audio, así como data sintética. Esto último significa información no vinculada al mundo real que puede ser utilizada para que las maquinas se enseñen a sí mismas. Esta capacidad generativa representa la forma más avanzada de IA.

Dentro de OpenAI, en efecto, tuvo lugar un auténtico duelo entre dos visiones encontradas con respecto a la IA. De un lado se encontraban los tres miembros de la Junta Directiva. Del otro, el Presidente-Ejecutivo de la empresa, Sam Altman. Los primeros abogaban por desplegar esta tecnología de manera extremadamente cuidadosa, mientras se tomaban todas las precauciones necesarias para evitar que esta forma de inteligencia se saliese del control humano. Altman, por el contrario, perseguía acelerar el desarrollo de la Inteligencia Artificial Generativa, sin retardarlo con tantas precauciones. Tal conflicto se hizo público ante el despido de Altman por parte de la Junta Directiva, la cual se mostraba alarmada por la despreocupación con las consecuencias que caracterizaban la gestión de aquel. Finalmente, balanza terminó inclinándose a favor de Altman, quien obtuvo el apoyo de la totalidad de los empleados de la compañía, los cuales amenazaron con desertar en masa si este era obligado a irse. Los principales accionistas optaron por deshacerse de la Junta Directiva, a la que consideraban demasiado cauta, reinstalando a Altman en su cargo. Ello fue sucedido por la designación de una nueva directiva conformada por líderes del mundo empresarial, para quienes el cambio tecnológico representa una “ganancia neta para la sociedad”. Es decir, una ganancia neta para el mundo mismo de los negocios. Así las cosas, con la desaparición de las barreras de protección, esta tecnología puede avanzar a toda velocidad sin preocuparse demasiado por las consecuencias (K. Roose, “A.I. Belongs to the Capitalists Now”, The New York Times, November 22, 2023).

Entre el mercado y los gurús

El resultado de esta contienda se enmarca dentro de lo que constituye el mayor temor de Yuval Noah Harari, quien ha analizado en detalle los efectos devastadores que el desarrollo incontrolado de la IA podría llegar a tener. Para él, la peor opción es que dicha tecnología quede en manos del mercado o de los gurús tecnológicos. Lo primero porque, por definición, las fuerzas del mercado son incapaces de definir o imponer límites. Lo segundo, porque dentro de la dicotomía género humano-tecnología, tales gurús le apuestan a la tecnología. En ambos casos, la IA correría el alto riesgo de salirse del control humano y de pasar a perseguir sus propios fines (Y.N. Harari, Homo Deus, New York: Haper Collins, 2016). Larry Page, quien aparte de su condición de gurú tecnológico, es también un avezado hombre de negocios, dio buena indicación de su posición al acusar a Musk de priorizar al género humano.

Poco antes de morir, Henry Kissinger publicó un esclarecedor artículo junto a Graham Allison. En él, se comparaban las diferencias existentes entre las armas nucleares y la IA. Para ellos, “mientras los gobiernos conducen el desarrollo de la tecnología nuclear, los empresarios privados, los expertos en tecnología y las compañías, están a cargo de la IA… Más aún, estas compañías se encuentran inmersos en una auténtica lucha de gladiadores entre ellas para ver cual prevalece” (H.A. Kissinger and G. Allison, “The Path to Arms Control”, Foreign Affairs, October 13, 2023). Mientras los gobiernos que han manejado las armas nucleares tienden a ser cautos, las empresas sólo piensan en la ganancia. En medio de esta lucha de gladiadores por dejar atrás a los competidores y maximizar el lucro, no hay en efecto tiempo, ni inclinación, para pensar en las consecuencias. Cual aprendices de brujo, las empresas a cargo del desarrollo de la IA están sólo centradas en ir más rápido que la competencia.

El “dataismo”

Sin embargo, los gurús tecnológicos resultan aún más peligrosos que los capitalistas desenfrenados. En el caso de estos últimos, la IA podría salirse del control humano por rapidez e imprevisión. Sin embargo, en el de los gurús sería por diseño expreso. De acuerdo a Harari, en este grupo predomina una suerte de religión seglar, el “dataismo”, en donde el flujo de datos constituye la esencia del universo y en donde la contribución al procesamiento de aquellos constituye la medida que determina el valor de cualquier fenómeno o entidad. El “dataismo” hace colapsar la distinción entre humanos y maquinas. Cualquiera de los dos que resulte más eficiente en el procesamiento del flujo de datos, debe prevalecer. Si los humanos no están ya en capacidad de lidiar con el desbordamiento de los datos, el paso natural es, por tanto, abdicar el control del proceso anterior ante la AI. (Harari, op. cit., pp. 367, 368). El denominado partido Transhumanista en Estados Unidos, conformado por multitud de científicos de Silicon Valley y de otros engranajes tecnológicos similares, es buen ejemplo de lo aquí dicho. La propuesta de este partido es que, dentro de la próxima década, un robot pueda ocupar la presidencia de ese país. Muy probablemente entre los empleados de OpenAI que respaldaron incondicionalmente a Altman, también prevalezca esta creencia.

La parsimonia oficial

Lo cierto es que mientras el sector privado corre desbocado y los gurús tecnológicos aguardan en la opacidad la ocasión para liberar a la IA de la “cárcel” impuesta por sus programadores, los gobiernos se mueven con la parsimonia habitual. Buen ejemplo de ello lo representó la primera cumbre mundial sobre la seguridad de la IA. Celebrada en el icónico Bletchley Park en el Reino Unido, la misma reunió a 29 naciones con el propósito de impulsar la cooperación internacional frente a los riesgos que dicha tecnología entraña. La misma produjo como resultado una declaración alusiva llena de buenas intenciones, aunque carente de puntos concretos. Más aún, la llamada Declaración de Bletchley Park no tiene carácter vinculante y deja a la buena voluntad de las partes el cumplir sus objetivos. De acuerdo a sus términos, los países involucrados se reunirán cada seis meses para evaluar la situación. (A. Flores, “Declaración de Bletchley: La seguridad de la IA”, Raia Diplomática, 22 de noviembre, 2023). Esto último, frente a una tecnología que avanza exponencialmente y en donde en un semestre pueden ocurrir cambios mayúsculos.

El fin de la humanidad

En definitiva, una vez que la IA se salga del control humano, bien sea por imprevisión o por propósito expreso, el género humano se encontrará en grave riesgo. Stephen Hawking, uno de los grandes científicos de nuestra era, creía que, con el advenimiento del dominio de ésta, la humanidad tendría sus días contados. Lo mismo piensan los cientos de científicos y presidentes de corporaciones de alta tecnología que, en mayo de este año, firmaron una carta abierta alertando contra los riesgos de esta caja de pandora. Para estos, donde aparecía por cierto el nombre de Elon Musk, una IA sin el debido control representa un riesgo muy grave para la subsistencia de la humanidad. Uno, que ellos equiparaban al de una guerra nuclear o al de una epidemia devastador.

A no dudarlo, aunque inicialmente los avances de dicha tecnología traerán consigo impresionantes avances científicos (al costo, eso sí, de un desempleo creciente y masivo), en el mediano a largo plazo el riesgo para la subsistencia de la humanidad resultará gigante.