Inteligencia Artificial: los orígenes, sus contingencias y su devenir

  • Imagen
    Dossier APU: Inteligencia Artificial
    Dossier APU: Inteligencia Artificial
DOSSIER

Inteligencia Artificial: los orígenes, sus contingencias y su devenir

01 Marzo 2023

El matemático estadounidense John McCarthy hacia 1955 tuvo la preocupación de reunir todos los conocimientos que venían produciéndose en el campo de la informática, los procesos de control y de optimización (cibernética) y otras áreas afines, en un encuentro de dos meses de duración.

Para ello, convocó a una serie de eminentes colegas como Marvin Minsky (Universidad de Harvard), Nathaniel Rochester (IBM Corporation) y Claude E. Shannon (Bell Telephone Laboratories)[1] en su ayuda tanto para la consecución de recursos económicos como para que la posición de prestigio de estos garantizara cierta asistencia al encuentro que estaba planificando. El lugar elegido como sede fue el Dartmouth College, en New Hampshire, y, entre junio y agosto de 1956, se desarrolló The Dartmouth Summer Research Project on Artificial Intelligence (Proyecto de Investigación sobre Inteligencia Artificial durante el verano en Dartmouth). Fue la primera vez que se usaba el nombre “inteligencia artificial” en un campo que reunía a diferentes áreas de la investigación (matemática, computación, ingenierías, etc.), y los motivos según estudiosos fueron para no usar términos como cibernética, campo consolidado debido el gran influjo del poderoso matemático estadounidense Norbert Wiener, ni autómatas, algoritmos o ciencias de la computación, campos ligados al eminente, y más poderoso aún que Wiener, matemático húngaro-estadounidense John von Neumann.

Puede argumentarse que la IA tiene un nacimiento en el que los conflictos de intereses y de poder son abiertamente manifiestos. La exclusión a dicho encuentro de estos dos eminentes, prolíficos y poderosos matemáticos remite a diferentes aspectos, entre los que se encuentran los filosóficos, los políticos, los de status en el propio campo disciplinar. El desarrollo tecnocientífico no es, ni ha sido a lo largo de la historia, un apacible encuentro de diplomacia y racionalidad, muy por el contrario. Hechos de esta naturaleza también pueden deberse a lo que en sociología del conocimiento se conoce como “postulado de Planck”.

El Premio Nobel de Física 1918 por su descubrimiento y descripción de los cuantos de energía, Max Planck, en su Autobiografía, escribió que una “nueva verdad científica no triunfa al convencer a sus oponentes y hacerlos ver la luz, sino porque sus oponentes finalmente mueren y crece una nueva generación que está familiarizada con ella”. A lo que agregaba que una “innovación científica importante rara vez se abre camino ganando gradualmente y convirtiendo a sus oponentes. Rara vez sucede que Saulo se convierta en Pablo. Lo que sucede es que sus oponentes desaparecen gradualmente, y que la generación en crecimiento está familiarizada con las ideas desde el principio: otra instancia del hecho de que el futuro está en la juventud”. En términos de IA podemos ver este conflicto, también. Jóvenes científicos que tratan, no de convencer a “viejos” científicos, sino de excluirlos, para dar creación a un campo que posiblemente no apoyaran quienes ya eran mandarines disciplinares.

Por otro lado, es común encontrar en la literatura actual sobre el éxito de dicho encuentro, aunque no fue tal, y su organizador máximo, J. McCarthy, aseveró que “para mí fue una gran frustración… Tampoco hubo, por lo que yo pude ver, ningún intercambio auténtico de ideas”, no obstante, de tal encuentro hoy conocido como la Conferencia de Dartmouth del verano de 1956 sobrevivió el nombre Inteligencia Artificial, y sociedades más o menos estables entre diferentes grupos de investigación que comenzaron a dar inicio a las primeras instituciones de investigación y desarrollo en el campo de la IA.

“Los filósofos están interesados en el problema de comparar dos arquitecturas, la humana y la de la máquina”

Esa cosa llamada Inteligencia Artificial

Ahora haremos un pequeño recorrido por un par de definiciones de IA que son complementarias y dan idea de qué es este enorme campo que parece abarcarlo todo en estos momentos. Marvin Minsky ha dado una de las más sintéticas y contundentes definiciones de IA. Para él “la inteligencia artificial es la ciencia de hacer que las máquinas hagan cosas que requerirían inteligencia se las hicieran los humanos”. Si observamos y analizamos esta definición está más ligada a lo que Tarcízio Silva denomina “IA general”. Esto es, “tratar de emular las capacidades de la mente humana en las diversas esferas de la experiencia, producir de manera autónoma, independiente y proactiva, y aprender sobre este comportamiento de una manera creativa”.

En el prólogo de lo que es el primer libro sobre el tema redactado en Argentina en 1972 y escrito por Eduardo D. Sontag y José L. Tesoro, Temas de Inteligencia Artificial, Simón Pristupin dice que el objetivo de la IA es el “estudio teórico y experimental de los diversos procesos intelectuales con el fin de conseguir una computadora que actúe, perciba y entienda en formas por el momento sólo posible a los seres humanos, en el lenguaje más preciso de los autores”. Y los autores sostienen, que la IA “es la disciplina que tiene por objeto el estudio de los métodos por los cuales mecanismos artificiales pueden ejecutar tareas consideradas como «inteligentes», que requieren racionalidad en la percepción, comprensión, decisión y acción; entre ellas la utilización del lenguaje natural, la percepción de configuraciones, la competición en diversos juegos y la demostración de teoremas matemáticos”.

Nuevamente, estas definiciones están más ligada a la “IA general” que a la “IA estrecha”. Se encuentran dentro de los presupuestos político-epistemológicos de un mundo-futuro, y la expectativa sobre ese mundo-futuro en relación a una humanidad más plena, ayudada por las “máquinas”. Esto nos permite ejemplificar que todo proceso de construcción de conocimientos está atravesado, en la generalidad, por las coordenadas socio-temporales de producción.

Stuart J. Russell y Peter Norvig en su obra Inteligencia Artificial: Un Enfoque Moderno sostienen que “en esencia, la IA consiste en la búsqueda del mejor programa agente en una arquitectura dada. Con esta formulación, la IA es posible por definición: para cualquier arquitectura digital de k bits de almacenamiento existirán exactamente 2k programas agente y todo lo que habrá que hacer para encontrar el mejor es enumerarlos y probar todos ellos”, aunque “los filósofos están interesados en el problema de comparar dos arquitecturas, la humana y la de la máquina”.

Estos autores, de probada formación, tienden a tener una posición pragmática que intermedia entre la “IA general” y la “IA estrecha”, pero en particular reparan en que se “han identificado ocho amenazas potenciales para la sociedad que se exponen tanto ante la IA como ante una tecnología relacionada. Podemos concluir diciendo que algunas amenazas son improbables, pero merece la pena revisar dos de ellas en particular. La primera es que las máquinas ultrainteligentes podrían llevarnos a un futuro muy diferente del actual y puede que no sea de nuestro agrado. La segunda es que la tecnología de la robótica puede permitir a individuos con una psicopatía emplear armas de destrucción masiva. Concluimos diciendo que esto es tanto más una amenaza de la biotecnología y nanotecnología que de la robótica”.

Vayamos a ver algo más actual, como la que esgrimen los economistas Ajay Agrawal, Joshua Gans y Avi Goldfarb en su celebrado libro de 2018 Máquinas Predictivas. La sencilla economía de la inteligencia artificial. Dicen que “nuestra primera información clave es que de hecho la nueva ola de la IA no nos aporta inteligencia, sino un componente básico de la misma: la predicción”, sobre la idea que “las predicciones son datos útiles para la toma de decisiones, y la economía proporciona el marco perfecto para comprender los compromisos que subyacen bajo cualquier decisión”. Y dado que las máquinas predictivas “se basan en los datos. Más cantidad y mejores datos implican mejores predicciones”, por lo que “no es de extrañar que algunos llamen a los datos el «nuevo petróleo»”, que a la vez “a medida que las máquinas predictivas mejoran, los negocios deben ajustarse a la división del trabajo entre personas y máquinas. Las máquinas predictivas son mejores que las personas”.

Esta concepción es la que Silva denomina “IA estrecha”, y la remite a los procesos de algoritmización generalizada para el control de flujos. En la definición de estos economistas es declarado el propósito, y lo llevan al extremo de la incidencia en lo que es la división del trabajo, ya las máquinas compitiendo en el mercado laboral.

Podemos leer en el prólogo del libro Inteligencia Artificial. Cómo cambiará el mundo (y tu vida), de Pablo Rodríguez, que, dado que el 80% de la población posee teléfonos inteligentes que permiten trazabilidad de datos, “los registros de esas interacciones miden aspectos importantes de la sociedad humana que los utiliza, porque los datos que generan al conectarse entre ellos o con las redes de telecomunicaciones, nos aportan cifras de población, patrones de movimiento y patrones de interacción entre comunidades”. Y como consecuencia, “ahora disponemos de informaciones sobre las condiciones de vida de los seres humanos en casi todos los rincones del mundo, y sobre los enlaces de conexión usados para obtener esos datos”. Más adelante, en este mismo libro, se dice que Alan Turing “le dijo al equipo [de criptógrafos británicos] que todos los mensajes estaban flotando por el aire, al alcance de cualquiera que quisiera hacerse con ellos. El problema era que estaban encriptados y que había 159 trillones de posibilidades. Llevaría 20 millones de años probarlo todo”. Turing, en particular, se refería a los mensajes del ejército nazi.

Para Rodríguez, Turing estaba “convencido de que, reuniendo suficientes referencias de mensajes anteriores, descifrando unas cuantas claves sobre cómo se habían encriptado aquellos mensajes y usando sofisticados algoritmos de predicción irían mucho más rápido y podrían descodificar los mensajes cifrados”. Por lo que si “capturaban una gran cantidad de datos y llegaban a comprender cómo se encriptaban los mensajes, podrían intentar predecir lo que escribían los alemanes. ¡Sí, era el inicio de la era de los macrodatos y la inteligencia artificial!”. Este autor, en esencia, propone a la IA a partir de “objetivos específicos” de Colossus, y acomoda la historia en perspectiva de la época de edición de su libro (2018 la edición en español) antes que en la propia filosofía y práctica intelectual de Turing. Sin dudas esto último requiere mayores y mejores precisiones, pero nos llevaría muy lejos y a otros objetivos.

Puede decirse que se ve con relativa claridad cómo se pasa de un paradigma a otro paradigma (del paradigma simbólico-deductivo al paradigma conexionista-inductivo; del paradigma de “inteligencia” propiamente dicha al paradigma de manejo “inteligente” de la sobreabundancia de datos) incluida la mudanza conceptual operada sobre el propio concepto de IA.

¿Qué es lo que ocurrió para que esto pasase?

Existen muchos motivos para este pasaje, para esta mudanza. Uno de los prioritarios ha sido el uso militar de la información, y, bajo ese uso, las demandas establecidas al campo informático por el complejo industrial-militar estadounidense, prioritariamente. En sintonía, las demandas propias de mercado, o, también, como sostiene Éric Sadin en La Humanidad aumentada. La administración digital del mundo, la industria no productora de ningún bien “requiere de algoritmos anticipatorios que lleven a los hechos el concepto militar moderno de «adelanto tecnológico» como una de las dimensiones condicionales de las victorias en el campo de batalla, de apariencia soft, pero eminentemente agresivo, de las finanzas globalizadas”.

Sadin, además, da otra pista en “adelanto tecnológico” o “salto tecnológico” o “aceleracionismo tecnológico”, que ha llevado en unas pocas décadas a vivir en estado tecnocientífico permanente. Dicho de otra manera, el estilo de vida actual es un estilo tecnológicamente mediado, y para comprenderlo debemos comprender eso que este autor ha llamado La siliconización del mundo. La irresistible expansión del liberalismo digital, donde expone, además del devenir tecnológico, el devenir político asociado a tal devenir tecnológico. Así es que la filosofía política en relación a este devenir encuentra anclaje en una suerte de a-política tecnologizada “que procura liberarse de lo político, entendido como la libre capacidad de los individuos para tomar decisiones en común y dentro de la contradicción”, prescindiendo o delegando nuestro poder de decisión a la algoritmización.

Notas

[1] John McCarthy, en ese momento, no era demasiado conocido ni ocupaba una posición de prestigio en un gran centro de investigación, aunque con el tiempo y su trabajo se convirtió en un referente de la programación informática habiendo creado el primer lenguaje de programación multiparadigma: LIPS. A esa fecha, Marvin Minsky era un reconocido y prolífico científico, quien ya había desarrollado el primer simulador de redes neuronales. De la unión entre McCarthy y Minski surge en 1957 el Laboratorio de Inteligencia Artificial del Instituto de Tecnología de Massachusetts (MIT). Nathaniel Rochester hacia principios de los ‘50s fue el arquitecto de las IBM 700, primeros prototipos de las primeras computadoras de venta masiva, y promediando esa década lideraba el grupo de simulaciones computacionales de IBM. Claude E. Shannon ya había publicado su obra máxima Una Teoría Matemática de la Comunicación (1948), y era un reconocido científico a nivel internacional (entre los 10 más influyentes de esos años, de acuerdo a las novedades que aportaban sus nuevas teorías).