The Myth of Artificial Intelligence

El merito principal de esta obra escrita por el científico informático Erik J. Larson consiste, bajo cierto punto de vista, en que posee la virtud de discriminar con claridad el grano y la paja en lo que tiene que ver con la Inteligencia Artificial (IA). Digámoslo con otras palabras, el contenido expositivo de este libro logra disipar con suficiencia cualquier atisbo de confusión que pudiera asaltar al lector no ducho en las cuestiones que se examinan en sus páginas (concretamente, la trayectoria histórica y, además, los entresijos que rodean al fenómeno de la Inteligencia Artificial -IA-), acerca de las fronteras que demarcan lo que concierne estrictamente al ámbito de la tecno-ciencia frente a lo que forma parte de un imaginario, más o menos pintoresco, ligado a la fascinante relación del hombre con lo maquinal.
Con el repaso minucioso de los capítulos que integran cada uno de los tres apartados en los que se estructura el libro (The Simplified Word; The problem of Inference; The Future of the Myth) uno puede colegir sin vacilación alguna hasta qué punto el asunto relativo a la Inteligencia Artificial (IA) ha estado encasillado, prácticamente desde el inicio mismo en que tiene su origen, dentro de ciertas estrategias comunicativas que han tenido como efecto más inmediato oscurecer o, incluso, tergiversar la situación real de ciertas líneas de avance de este campo. Y no hay duda de que todo ello, como parece lógico, ha devenido en un escenario sin mucho basamento, aunque con sobrado dramatismo y especulación engañosa como para incidir profundamente en la visiones compartidas de la realidad futura en nuestras sociedades contemporáneas.
Hay que decir, por tanto, que no nos hallamos ante un trabajo benévolo o condescendiente con las derivas actuales asociadas a la Inteligencia Artificial, a diferencia de muchos otros escritos que hoy en día abarrotan las librerías de medio mundo. Se podría afirmar, por el contrario, que planta cara de raíz a los cimientos epistemológicos que otorgan solidez a la cosmovisión tecnocrática moderna mediante la asunción de dos tesis que no carecen, por cierto, de cierto matiz provocativo. Vayamos, pues, por partes.
En primer lugar, el lector se topa, casi de improviso, con la idea de que nuestro conocimiento sobre la Inteligencia Artificial se encuentra revestido de un poderoso contenido mítico. Aunque pueda parecer sorprendente, el hecho concreto es que muchos de los protagonistas que, de una u otra forma, han terciado en la fundación y desarrollo de la Inteligencia Artificial (aspecto éste que el autor se dedica a desgranar en la primera y segunda parte del libro, pp. 7-234) se han dejado arrastrar, en el fondo, por la maleabilidad y ductilidad de los tropos narrativos asociados de la Inteligencia Artificial para crear novedosos y encomiásticos mitologemas (haciendo nuestro el concepto clásico del erudito húngaro Karl Kerenyi). Pero no nos llamemos a engaño. La carga de ensoñación quimérica no radica en la posibilidad o no de que la Inteligencia Artificial tenga lugar en alguna etapa determinada del progreso humano, sino precisamente en el carácter de inevitabilidad de su advenimiento. Con estos mimbres, el autor demuestra la existencia de una óptica colmada de inverosimilitud en los espacios internos en donde se gestan las estrategias de la praxis tecno-científica, en la medida en que se persigue de manera recurrente y errónea, por lo menos al modo de ver del autor, la emulación escrupulosa de características muy particulares de la inteligencia con el propósito preciso de alcanzar la denominada Inteligencia General (IAG). Igualmente, hallamos un imaginario adicional que se arraiga, esta vez, en el substrato cultural de nuestras sociedades contemporáneas y que tiene que ver con la inevitabilidad de la Inteligencia Artificial, entendida como el corolario anunciado de una fase evolutiva del desarrollo tecnológico (y aquí entran autores paradigmáticos como Ray Kurzweil, David Andrew Pearce o Nick Bostrom o Elon Musk) que, además de periclitar aquellas propuestas, en parte más realistas y más bajadas a tierra, relacionadas con la Inteligencia Artificial, abren un horizonte de prospectiva futurista atravesada por una dialéctica que confronta una perspectiva tecno-optimista con otra más sombría y distópica.
Con todo, lo que se trata de explicar en este libro no se queda en esta aseveración. Hay una segunda tesis que pone el acento en el hecho de que las posibilidades de desarrollo de la Inteligencia Artificial se encuentran limitadas por el propio nivel de conocimientos que se atesoran en la actualidad sobre la naturaleza de la inteligencia humana. De hecho, uno de los aspectos críticos que el autor deja entrever es que las líneas de trabajo en torno a la inteligencia artificial que se están llevando a cabo desde los años cincuenta se obstinan en el desacierto de basarse en un modelo altamente simplificado de la inteligencia humana. Y, como consecuencia de ello, pese a los múltiples intentos operativos de imitación o emulación de pensamiento, el autor deja muy claro que la inteligencia humana y la artificial son radicalmente desiguales.
Teniendo en consideración esta declaración de principios, que constituyen el verdadero leitmotiv de la obra, el recorrido histórico que acompaña a la Inteligencia Artificial adquiere otras connotaciones que, por lo general, se omiten intencionalmente. En ese sentido, el autor sostiene que las preocupaciones y áreas de atención preeminentes que irrumpen con la aparición de la Inteligencia Artificial (cuyo germen incipiente data de la famosa Conferencia de Darthmout de 1956, donde se reúnen algunos de los grandes popes de esta ciencia en ciernes como John McCarthy, Marvin L. Minsky, Nathaniel Rochester y Claude E. Shannon) se han tratado de abordar a través de una sistemática identificación de problemas particulares que se sacan fuera del contexto real en el que se produce la inteligencia humana y a través de la reducción de ésta a mera potencia computacional, lo que explica, en última instancia, el triunfo de una enfervorizada mentalidad “dataista” (evidenciada, actualmente por Byung-Chul Han o Yuval Noah Harari, entre otros). Pero dejemos claro que esta espinosa problemática no es de ahora. Debemos trasladarnos a las raíces iniciales del proyecto de realización de máquinas inteligentes, impulsado por el matemático e informático británico Alan Turing (en su artículo clásico “Computing Machinery and Intelligence” de 1950) y posteriormente por el lógico y filósofo austriaco Kurt Gödel (con su conocido principio de incompletitud de los sistemas formales) para atestiguar el surgimiento de un equívoco trascendental que iba a prosperar en las siguientes décadas (Capítulos 1 & 2, pp. 9-33). En la firme pretensión de reproducir maquinalmente las facultades intelectivas del pensamiento humano, se ha considerado adecuado llevar a cabo extrapolaciones basadas en reglas, operaciones estadísticas o estrategias de resolución de problemas. Huelga decir que esta estrategia se ha demostrado del todo punto fallida, dado que ningún hito tecnológico del presente ha podido superar el text de Turing.
Y es que, para Larson, la clave de bóveda aquí es de carácter cualitativo y no cuantitativo. Pese a la eficacia retórica que acompaña a ciertas campañas de comunicación científica, el avance en el perfeccionamiento de los sesgos funcionales aplicados, en los métodos modernos de aprendizaje automático o en el aprendizaje profundo resulta, en este caso, absolutamente secundario. Esto no conduce al logro de una inteligencia del nivel del ser humano y si lo hace a un callejón sin salida para la Inteligencia Artificial.
La razón de esta declaración tan contundente resulta hasta cierto punto comprensible. No en vano, la Inteligencia Artificial trabaja con una concepción de inteligencia estrictamente universal, proyectada en un marco de pura abstracción, sin percatarse de que la inteligencia humana descansa siempre en un contexto sociocultural concreto. Dicho de forma más sencilla, la inteligencia es situacional (de acuerdo con los planteamientos, mencionados en el libro, del ingeniero francés François Chollet) y, en gran medida, reposa en el entorno civilizatorio que le da cobijo.
Pues bien, no resulta difícil vislumbrar en este punto que las estrategias y métodos de programación de la Inteligencia Artificial, aspecto no trivial asociado a la manera en que esta rama de la ciencia computacional interacciona con la realidad, remite, a su vez, a la cuestión del alcance cognitivo de la deducción (en la generación de conocimiento) y de la causalidad (en la ordenación y dotación de relevancia a nuestros conocimientos sobre el mundo). Lo que se está dirimiendo en realidad es, en resumidas cuentas, si es factible trascender el mero cálculo e incorporar a los dispositivos artificiales aquellas conjeturas particulares que se nutren del sentido común cultivado y percibido por el hombre en su vida cotidiana. Y esto es algo que tiene su importancia porque, hoy en día, el proceder de la Inteligencia Artificial se atiene al radio de acción de enfoques deductivos de la inferencia o, ya a partir de los años noventa, a un tipo de inferencia deductiva que en ningún caso escapa de los marcos lógicos previamente fijados. El entorno en el que se mueve la Inteligencia Artificial es, en definitiva, cerrado, expuesto a un control mayúsculo y completamente previsible, algo completamente opuesto a la experiencia humana de la realidad que, aclarémoslo por si hubiera alguna duda, es provisional y en continuo cambio. En ese sentido, el procesamiento de datos y los análisis correspondientes que se desprenden de operaciones de simulación de comportamiento (función realizada desde el aprendizaje profundo) o de la inducción automatizada resultan escasos a la hora de abarcar y manejar la ingente cantidad de variables ocultas que son contempladas en los procesos de inferencia subyacente, es decir, aquello que comúnmente se denomina “sentido común”, y que es manejado de forma natural por el ser humano durante su vida. He aquí una divergencia, por el momento, insalvable con el pensamiento humano y que retrata una realidad, si se quiere, más modesta, ya que, ante la ausencia del trasfondo contextual, los sistemas de Inteligencia Artificial no resultan en modo alguno eficaces para establecer inferencias, contextualizar el conocimiento y sacar conclusiones relevantes (capítulos 8-14, pp. 89-233).
No es casual, por lo tanto, que el autor haga referencia al filósofo, lógico y científico estadounidense Charles Sanders Peirce y su concepto de inferencia abductiva, o sea, aquella especie de instinto, de selección enigmática, de salto cualitativo, de conjetura explicativa que se nutre de las condiciones específicas del contexto y de la infinidad de posibilidades que éste encierra (y, en consecuencia, más allá de los marcos lógicos de la inducción y de la deducción) para determinar el punto de partida de cualquier pensamiento inteligente. A diferencia de lo que ocurre con normalidad en el ser humano, la Inteligencia Artificial no ha dado resultados exitosos, más bien lo contrario, a la hora de integrar esta cualidad intelectiva, en tanto que todavía no ha sido capaz de desarrollar una teoría de la abducción.
Pero eso no es todo. Hay otros aspectos que orbitan en torno a la Inteligencia Artificial y que, más que asentarse en un terreno sólido y estable, abundan en un craso error teórico-conceptual y en ciertos espejismos fantasiosos. Señalemos dos ejemplos significativos contenidos en este libro.
En primer lugar, el autor alude a la aspiración, celebrada como algo seguro por los apologetas más entusiastas, para lograr una super-inteligencia artificial. Se supone además que, al introducir la retroalimentación en la mejora maquinal (es decir, la auto-mejora, concepto que fue rechazado por el propio John Von Neumann décadas atrás) se origina una curva exponencial de inteligencia en las máquinas que desemboca, en su tramo final, en un estadio irreversible de “ultra-inteligencia”. No hay que ir muy lejos para imaginar que, con esto, se están poniendo las bases para anticipar, con visos de realidad y en un horizonte temporal relativamente temprano, la superación del pensamiento humano (aspecto que es retomado en la actualidad por Nick Bostrom). Sin embargo, aquí existe una confusión elemental. Por mucho que se potencie el hardware en la carga y ejecución de aplicaciones (cumpliéndose así la Ley de Moore), esto no se asemeja ni de lejos a una inteligencia consciente. Los poderes intelectivos del ser humano escapan a todo intento de mecanización reductiva.
En segundo lugar y en íntima relación con lo anterior, está la idea de la singularidad tecnológica que, en un principio, el matemático Vernor Vinge traslada a la computación y, específicamente, a la Inteligencia Artificial. Como es muy bien sabido, será finalmente el prospectivista estadounidense Raymond Kurzweil quien da un empuje renovado a este concepto con su Ley de retornos acelerados, ampliando así el patrón de crecimiento exponencial en la complejidad de circuitos semiconductores y pregonando a los cuatro vientos el advenimiento próximo de la Inteligencia Artificial General (IAG), momento decisivo en el que supuestamente las máquinas y no las personas asumirán el control global como los seres más inteligentes del planeta. Ahora bien, cuando Kurzweil pone en marcha este discurso ya hacía tiempo que se había desaparecido en el campo de la Inteligencia Artificial la ilusión de alcanzar una super-inteligencia.
Estos y otros tantos argumentos de sumo interés que, por razones lógicas de espacio, no nos es posible mencionar en esta reseña, le llevan a Erik Larson a ponernos sobre la pista del revestimiento mítico y del esteticismo kitsch que abunda en el tratamiento de la Inteligencia Artificial (capítulos 15-18, pp. 237-281). Mediante algunos ejemplos paradigmáticos que están desarrollados en el libro, como los que corresponden a la Red Informática Mundial (la Web), el Proyecto Cerebro Humano (HBP) y el descubrimiento del Bosón de Peter Higgs, se deja patente la tendencia a simplificar la innata complejidad de la inteligencia humana supeditándola a la operatividad tecnológica. De esta forma, la Inteligencia Artificial contribuye a consolidar una cosmovisión tecnocéntrica, centrada en una supuesta e injustificada equiparación de la mente humana a la computadora, que termina inevitablemente aboliendo la vigencia actual de la episteme (entendida como conocimiento de los fenómenos naturales) y de la sapientiae (esto es, sabiduría relacionada con los valores humanos y la sociedad). El escenario final, en suma, arroja ciertas sombras amenazantes para el futuro de la ciencia y el reconocimiento del potencial intelectivo de un ser humano que, bajo las derivas presentes de la computación basada en datos, se convierte en un engranaje minúsculo de una máquina gigante. Atendiendo a todo lo dicho, no hay duda de que la lectura cuidadosa de esta destacable obra permite una exploración profunda y, lo que es más importante, fundamentalmente realista (desechando entelequias y fascinaciones quiméricas), de un campo, como el de la Inteligencia Artificial, que en su derrotero evolutivo se enfrenta, al igual que la parábola narcisista encarnada por Dorian Gray, ante un atrayente retrato distorsionado de sí mismo.

fotografía: tomada de medium.com

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *