Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
La inteligencia artificial es omnipresente. Cada vez más sistemas y servicios con los que interactúas a diario se basan en tecnología de IA. Aunque algunos de los últimos sistemas de IA son hasta cierto punto generalistas, la mayoría de la IA es limitadamente específica; es decir, solo puede hacer una sola cosa en un solo contexto. Por ejemplo, tu corrector ortográfico no puede hacer ecuaciones, ni el mejor programa de ajedrez del mundo puede jugar Tetris. La inteligencia humana es distinta. Nosotros podemos realizar una gama de tareas, que incluyen aquellas que no hemos visto antes. En Inteligencia Artificial General, Julian Togelius explora los enfoques técnicos para desarrollar una inteligencia artificial más general, y se pregunta qué implicaría una IA general para la civilización humana. Togelius comienza dando ejemplos de una IA estrecha que tiene un desempeño sobrehumano en alguna habilidad. Es interesante que por más de medio siglo ha habido sistemas de IA que son superhumanos en algún sentido. Posteriormente, analiza lo que una inteligencia artificial implicaría a partir de definiciones de la psicología, la etología y la ciencia de la computación. A continuación, explora las dos familias principales de perspectivas técnicas para desarrollar una inteligencia artificial más general: los modelos fundacionales a través de la enseñanza autosupervisada, y el aprendizaje abierto en entornos virtuales. En los capítulos finales del libro, se investiga la inteligencia artificial potencial, más allá de los aspectos estrictamente técnicos. Las preguntas que aquí se desarrollan investigan si tal IA sería consciente, si presentaría un riesgo para la humanidad, y cómo podría alterar a la sociedad.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 245
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
EDICIONES UNIVERSIDAD CATÓLICA DE CHILE
Vicerrectoría de Comunicaciones
Av. Libertador Bernardo O’Higgins 390, Santiago, Chile
lea.uc.cl
INTELIGENCIA ARTIFICIAL GENERAL.
MIT Press / Conocimientos esenciales
Julian Togelius
© 2024 Massachusetts Institute of Technology
Inscripción N° 2025-A-9726
Derechos reservados
Noviembre 2025
ISBN 978-956-14-3472-1
ISBN digital 978-956-14-3473-8
Traducción: Programa de Magíster en Traducción - Facultad de Letras UC
Ilustración de portada: Joaquín Rosas Sotomayor
Diseño y diagramación: versión productora gráfica SpA
CIP - Pontificia Universidad Católica de Chile
Nombres: Togelius, Julian, autor.
Título: Inteligencia artificial general.
Descripción: Santiago, Chile : Ediciones UC.
Materias: CCAB: Inteligencia artificial. | Aprendizaje de máquina. | Inteligencia Computacional.
Clasificación: DDC 006.3 –dc23
Registro disponible en: https://buscador.bibliotecas.uc.cl/permalink/56PUC_INST/vk6o5v/alma997632113103396
La reproducción total o parcial de esta obra está prohibida por ley. Gracias por comprar una edición autorizada de este libro y respetar el derecho de autor.
Diagramación digital: ebooks Patagonia
www.ebookspatagonia.com
Prólogo de la serie
Agradecimientos
Capítulo 1Introducción
Capítulo 2Breve historia de la IA sobrehumana
Capítulo 3Inteligencia (natural)
Capítulo 4Inteligencia (artificial)
Capítulo 5Variedades de la inteligencia artificial general
Capítulo 6Desarrollo de la IAG práctica
Capítulo 7Autoaprendizaje supervisadode los modelos fundacionales
Capítulo 8Aprendizaje abierto en mundos virtuales
Capítulo 9Inteligencia artificial generaly consciencia
Capítulo 10Superinteligencia y la explosión de inteligencia
Capítulo 11Inteligencia artificial generaly sociedad
Capítulo 12Conclusiones
Glosario
Notas
Lecturas adicionales
La serie de Conocimientos esenciales de MIT Press ofrece libros de bolsillo accesibles, concisos y atractivos sobre temas de interés actual. Escritos por destacados pensadores, los libros de esta colección ofrecen una visión general de expertos sobre los más variados temas que van desde lo cultural e histórico a lo científico y técnico.
En la era actual de información instantánea, tenemos fácil acceso a opiniones, racionalizaciones y descripciones superficiales, mientras que el conocimiento fundamental que entrega una comprensión del mundo basada en principios es mucho más difícil de encontrar. Los libros de esta serie satisfacen esta necesidad. Al sintetizar conceptos especializados para un público no experto y abordar temas críticos a través de los fundamentos, cada uno de estos volúmenes compactos ofrece a los lectores un punto de acceso a ideas complejas.
BRUCE TIDORProfesor de Ingeniería Biológica e Informática Instituto de Tecnología de Massachusetts
|
Recibí valiosas observaciones sobre la versión preliminar del manuscrito de parte de varios revisores amables y expertos: Sam Earle, Giansiracusa, Ahmed Khalifa, Jerry Swan, Mike Preuss y tres revisores anónimos. Sus sugerencias me han ayudado a mejorar el libro de muchas formas, aun cuando no las implementé exactamente como lo sugirieron. Claramente, todos los errores son de mi completa responsabilidad. Sin embargo, estoy seguro de que este texto tiene más información factual que si lo hubiese escrito GPT-4. Créanlo o no, en ningún momento pensé en recurrir a la ayuda de un modelo de lenguaje para escribir este libro.
También me gustaría agradecer a Elizabeth Swayze y Matt Valades, de MIT Press, quienes respaldaron este proyecto con entusiasmo y tuvieron paciencia con mi actitud liberal respecto de los plazos.
En especial, quisiera agradecer a Raz y Dylan por tolerar que trasnochara y pasara soleadas tardes de fin de semana con este libro en vez de estar con ellos. ¡Los amo!
|
Cuando hablamos de inteligencia artificial (IA), el término podría significar varias cosas. Podría referirse al centenario sueño de contar con máquinas verdaderamente inteligentes, que puedan razonar tan bien como cualquiera de nosotros. Podría referirse a alguna de las variadas representaciones de la IA que aparecen en películas y libros, desde Terminator a WALL-E, sin olvidar al Comandante Data, de Star Trek: la nueva generación. Podría referirse también a la investigación, teórica o aplicada, que se lleva a cabo en los laboratorios universitarios y que se publica en artículos académicos. O podría referirse a tecnologías reales que usamos todos los días y que, automáticamente, planifican nuestra ruta al conducir, mejoran nuestras fotografías, controlan los personajes de nuestros videojuegos, realizan nuestras búsquedas en la web o nos presentan publicidad basada en esas búsquedas.
En el debate general, es común que se confundan estos distintos significados. Por ejemplo, puedes leer un titular como “La IA controlará al mundo”, pero luego, al fijarte en la función de autocompletar texto potenciada por IA de tu teléfono, concluyes que algo tan torpe claramente no va a tomar control del mundo en un futuro cercano. O quizás estás considerando comprar un auto nuevo con funciones de conducción asistida potenciadas por IA, pero te preocupa que pueda tener una mente propia (posiblemente asesina), como HAL 9000 de 2001: Odisea del espacio. En mi experiencia, pasar de leer un artículo que especula sobre la posibilidad de que la IA vuelva obsoletos a los seres humanos, a enfocarme en los experimentos que estoy desarrollando en que los bots que entreno corren en círculos y chocan con las paredes en vez de luchar entre sí, es un poco surrealista. Hace que te preguntes si la gente que escribe tales titulares ha intentado alguna vez desarrollar un sistema de IA.
Una fuente de confusión es creer que el software y el hardware reales son ficción. Otra es confundir los sistemas que ejecutan una única tarea con los que pueden realizar una amplia variedad, incluidas tareas para las que no fueron entrenados ni construidos. Los sistemas de IA ficticios que aparecen en 2001: Odisea del espacio, Terminator y WALL-E cuentan con un abanico maravilloso de capacidades. Por ejemplo, el Terminator original puede imitar de manera convincente las voces de personas que recién ha conocido, elaborar planes complejos, hacer trabajo de detective, conducir una motocicleta y luchar contra docenas de policías usando una amplia gama de armamento. En cambio, AlphaGo, el sistema de IA que asombró a la humanidad en 2016 cuando derrotó a los mejores jugadores de Go del mundo, solo puede jugar Go. Ni siquiera puede jugar ajedrez, a menos que lo vuelvas a entrenar desde cero. No sabe ni lo básico de conducir una motocicleta o de luchar contra las fuerzas de la ley.
Este libro trata sobre la inteligencia artificial general (IAG), un término que todavía no cuenta con una definición clara. Muchos han intentado definirla, pero a menudo las definiciones son poco precisas y, en ocasiones, se contradicen. Por ejemplo, Bill Gates define la IAG de manera sucinta como “software que es capaz de aprender cualquier tarea o tema”.1 En cambio, John Carmack, el legendario programador de videojuegos y cocreador de Doom, la define como “una forma de IA que va más allá de imitar la inteligencia humana para comprender cosas y resolver problemas”.2 El investigador en IA, Murray Shanahan, define la IAG como “inteligencia artificial que no se especializa en llevar a cabo tareas específicas, sino que puede aprender a desempeñar un amplio abanico de tareas como si fuera un humano”.3 Es fácil pensar en varios sistemas que encajarían en alguna de estas definiciones pero no en las otras. Si quisiéramos, podríamos encontrar muchas más definiciones para tomar en consideración. El investigador en IA, Ben Goertzel, analizó docenas de definiciones de IAG en un exhaustivo artículo publicado en 2014. Desde entonces, el debate sobre la IAG solo se ha intensificado.4
En este libro, entiendo la IAG como un software que puede realizar una amplia variedad de cosas, que puede resolver un gran número de problemas y que es extraordinariamente más competente que los sistemas de IA que tenemos hoy en día. Podemos contrastar esto con la IA estrecha, que se refiere a sistemas que ejecutan una sola tarea o unas pocas, pero estrechamente relacionadas. Todos, o casi todos, los sistemas de IA existentes tienen un alcance más bien estrecho.
Otro término sobre el cual no tenemos una definición única y universalmente aceptada es inteligencia artificial. Desde que el término fue utilizado por primera vez en los sesenta, se ha propuesto un sorprendente número de definiciones a veces hasta contradictorias, lo que, en parte, refleja la gran variedad de enfoques computacionales que se han seguido bajo el título de inteligencia artificial.5 Algunas de estas definiciones ponen énfasis en el modelamiento de la inteligencia biológica o humana; otras se conectan con las nociones de inteligencia provenientes de la psicología; algunas se enfocan en conceptos computacionales específicos, tales como símbolos o funciones, y otras se siguen preocupando del tipo de tareas que un sistema de IA podría resolver. En este libro, uso el término inteligencia artificial con dos significados distintos. El primero es el objetivo de que las máquinas realicen cosas que en el presente los humanos hacen mejor; en particular, aquellas acciones que parecen requerir cierta reflexión cuando los humanos las llevan a cabo (en la práctica, “máquinas” se refiere a computadores digitales, al menos por ahora). El segundo significado de la IA se refiere a un conjunto de algoritmos, software y conocimientos desarrollado por investigadores y programadores que se enfoca en la solución de problemas que parecen necesitar cierta inteligencia. Aunque este libro trata sobre la IA en el sentido de la misión de construir inteligencia en las máquinas, a menudo hablaré de algunas de las tecnologías individuales de IA que se han desarrollado.
Una expresión que no encontrarás en este libro, y que no deberías encontrar en ninguna obra de autores expertos en este tema, es “una IA”. No existe tal cosa en el mundo hoy, sino que existen varias piezas de software y hardware que se han desarrollado para intentar lograr varias capacidades. Para evitar confusiones, cuando hable de los resultados de la investigación en IA, hablaré en vez de sistemas de IA, herramientas de IA y algoritmos de IA. Es importante recordar que varias de las cosas que etiquetamos como “IA” son bien diferentes entre sí, y que un programa que juega ajedrez tiene poco en común con un programa que genera imágenes vívidas.
El tema del libro es la IAG y, dado que todavía no existen IAG –más específicamente, los sistemas más generales de IA todavía no son muy generales–, uno se podría preguntar por dónde comenzar. La respuesta obvia es comenzar por la historia, pero no por la historia de la IA en general, sino por aquella de la inteligencia artificial sobrehumana. Como tal, el próximo capítulo ahonda en las seis décadas de historia de la IA para describir varios ejemplos de sistemas de IA que hacen las cosas mejor que los humanos. El punto central del capítulo es que, en cierto dominio de problemas, si bien las capacidades sobrehumanas son impresionantes y a menudo útiles, no constituyen necesariamente un paso hacia una inteligencia general. A medida que avancemos, trataré de dar a conocer parte de la amplia variedad de métodos técnicos en que se basan los distintos sistemas de IA.
Estamos hablando de inteligencia artificial, pero todavía no hemos aclarado qué queremos decir con “inteligencia”. El capítulo 3 trata de la inteligencia del tipo no artificial. La inteligencia ha sido estudiada, entre otros, por filósofos, psicólogos y etólogos (estudiosos del comportamiento animal). Revisaremos un par de conceptos clave del estudio de la inteligencia en humanos y en animales, y su relación con la inteligencia artificial general. Esta revisión incluye la distinción fundamental entre inteligencia fluida e inteligencia cristalizada, la que podemos usar para comprender las diferencias entre los distintos métodos de IA, e incluye el factor g, que pretende ser una medida de la inteligencia general en los humanos.
Sin embargo, también analizaremos la teoría relevante dentro de la investigación en IA. En el capítulo 4 se exploran los intentos de la comunidad de IA para definir la IAG. Asimismo, se analizan algunos argumentos matemáticos a favor y en contra de la posibilidad de la IAG. Entre ellos se encuentran los contraintuitivos teoremas “no hay almuerzo gratis”, que parecen indicar que la inteligencia general es imposible, pero también incluyen el concepto de inteligencia universal, que intenta superar esta limitación teórica.
Todas estas teorías acerca de la inteligencia y de la inteligencia artificial pueden parecer bastante abstractas y no nos ayudan necesariamente a imaginar cómo sería la IAG. En el capítulo 5, se exploran algunas visiones sobre cómo podría ser la IAG, con amplia referencia a la ciencia ficción. Las historias de ciencia ficción han inspirado a generaciones de investigadores en IA, así que pueden ayudarnos no solo a pensar, sino también a diferenciar los posibles futuros de la IA.
Los siguientes tres capítulos se alejan de la argumentación abstracta y se adentran en el mundo de la investigación aplicada en IA. En ellos, se revisarán aproximaciones prácticas a la creación de la IAG. En el capítulo 6, se exploran las principales direcciones que sigue la investigación en IA y se trata de evaluar si alguna de ellas, por sí sola, podría liderar el camino hacia la IAG. Un spoiler: no.
En los siguientes dos capítulos se examinan las aproximaciones a la IAG que considero más promisorias. La primera, analizada en el capítulo 7, corresponde a los modelos fundacionales construidos mediante aprendizaje autosupervisado. En los años recientes, se han visto resultados increíbles en el entrenamiento de grandes redes neuronales con enormes volúmenes de datos extraídos de internet mediante scraping o extracción automática de información. Las redes obtenidas a veces son asombrosamente capaces, ya que pueden desempeñar tareas para las cuales no fueron entrenadas explícitamente. GPT-4 de OpenAI fue entrenado solamente para predecir texto, pero puede traducir, resumir, argumentar filosóficamente, hacer tu tarea y muchas otras cosas. Otro modelo fundacional, Stable Diffusion, puede generar una enorme variedad de imágenes como respuesta a prompts textuales (instrucciones escritas para interactuar con IA) y, también, puede comprimir imágenes y retocarlas, entre otros. Sin embargo, también es muy fácil encontrar ejemplos de tareas que estos maravillosos modelos (todavía) no pueden hacer. ¿Podrá expandirse este enfoque? ¿Podemos simplemente seguir entrenando redes más grandes, con más y más datos, y llegar a alguna forma de IAG?
En el capítulo 8 se describe otro enfoque complementario a la IAG, a saber, el aprendizaje abierto en entornos virtuales. En este enfoque, los sistemas de IA son agentes que actúan en mundos simulados en lugar de aprender pasivamente de datos creados por humanos. La idea, aquí, es permitir que la IA surja, o evolucione, inspirada por la manera en que la inteligencia evolucionó en la Tierra. Desde hace mucho tiempo que los científicos estudian agentes que aprenden a actuar con el fin de maximizar recompensas; sin embargo, aunque esta línea de investigación ha mostrado un progreso importante, los agentes tienden a aprender estrategias específicas, que son opuestas a las generales. Lo nuevo en el aprendizaje abierto es que el sistema de IA crea sus metas sobre la marcha y genera los problemas que este piensa que debería tratar de solucionar. Esto evita la trampa de la sobrespecialización. Hemos visto algunos resultados alentadores con tales sistemas, pero ¿llegarán a aprender, en algún momento, habilidades que sean útiles para nosotros?
Ahora bien, supongamos que logramos construir un sistema de inteligencia artificial con un considerable nivel de generalidad. ¿Existirá algo que sea similar a lo que sería un sistema así? ¿Tendrá un punto de vista y tendrá conocimiento de sí mismo? Si así fuera, ¿eso nos haría éticamente responsables del sistema? En el capítulo 9, se aborda la complicada cuestión de la consciencia de la IAG. Si bien en este punto no hay mucho que decir con algo de certeza, se han propuesto algunos interesantes argumentos.
Preparados con este conocimiento, estamos listos para enfrentar la idea más notable en la IAG, la razón principal por la que tanta gente no solo está emocionada con el desarrollo de la IAG sino también asustada. El capítulo 10 está dedicado al argumento de la superinteligencia o singularidad tecnológica. En pocas palabras, el argumento establece que un sistema de IA suficientemente inteligente podría aprender, una y otra vez, cómo automejorarse y, así, volverse todavía más hábil, con un crecimiento exponencial de inteligencia. Intelectualmente, para un sistema como este seríamos hormigas. ¿Tiene sustento tal argumento? ¿Concuerdan sus supuestos con lo que sabemos acerca de la IA?
En el capítulo 11 se abordan los efectos de la IAG en la sociedad. ¿Qué podría significar un hipotético sistema de IAG para el empleo y para nuestra autoestima? ¿Limitaría nuestra capacidad para gobernar nuestra sociedad? Considerar la IAG en el contexto de nuestra sociedad completa es esclarecedor, pues nos ayuda a comprender mejor el rango de cosas que los humanos realizan y las tareas que una verdadera IA general debería ser capaz de resolver.
Por último, en el capítulo 12 intentaré resumir el libro en una conclusión concisa. Al llegar al final del libro, me resultará casi imposible abstenerme de expresar algunas opiniones propias. Nivel de picante: medio.
Pero todavía no llegamos ahí. Primero, volvamos a la antigüedad de la historia digital.
Hoy en día ya contamos con máquinas que tienen una inteligencia sobrehumana, lo que quiere decir que son mejores que la mayoría de los humanos en tareas que parecieran requerir inteligencia. Estas máquinas con inteligencia sobrehumana existen desde hace mucho tiempo, como mínimo algunas décadas. Cuánto tiempo exactamente dependería en parte de qué tareas consideramos que requieren inteligencia, lo que parece haber cambiado con los años.
La historia de la inteligencia artificial, entendida como los esfuerzos por desarrollar computadores capaces de realizar cosas que, si las hiciera un humano, parecerían inteligentes, se remonta a la década de 1940. La razón de esto es que antes de dicho periodo no existían computadores digitales de propósito general. Prácticamente desde el momento en que se crearon los primeros computadores de este tipo –torpes, lentos y extremadamente limitados según los estándares actuales–, comenzaron a usarse en experimentos de inteligencia artificial. De hecho, la promesa de la inteligencia artificial fue una motivación clave en el desarrollo de los computadores, tanto por la convicción de su enorme potencial para automatizar el razonamiento y el aprendizaje de diversos tipos, como por la aspiración humana, presente desde los albores de la historia, de recrear la inteligencia en formas no biológicas.
Entre las primeras representaciones ficticias de lo que podríamos considerar máquinas inteligentes se encuentran los sirvientes artificiales de Hefesto en la mitología griega, así como el gólem, una criatura de arcilla dotada de inteligencia, que, según un relato folclórico del siglo XVI, protegía a los judíos de Praga. Con la invención de los relojes mecánicos alrededor del siglo XIV, algunos relojeros europeos crearon elaborados autómatas capaces de ejecutar movimientos complicados. Estos autómatas a menudo se instalaban en iglesias para impresionar a los habitantes del pueblo y a los visitantes. No obstante, no tenían prácticamente ninguna flexibilidad y solo podían realizar movimientos predefinidos. La máquina analítica de Charles Babbage fue una especie de calculadora sofisticada programable o computador temprano. No obstante, Babbage solo pudo diseñarla, ya que su construcción sobrepasaba las capacidades de la mecánica del siglo XIX.
Todo esto cambió con la tecnología digital. La velocidad y la fiabilidad de los circuitos digitales permitieron que los ingenieros construyeran calculadoras con capacidades sin precedentes. Los primeros computadores digitales programables surgieron en las décadas de 1940 y 1950, inicialmente impulsadas por las diversas demandas computacionales de la Segunda Guerra Mundial, como disparar artillería a aviones en movimiento e interpretar señales de radar.1 Si bien estas máquinas eran primitivas según los estándares actuales, eran capaces de realizar maravillas. En concreto, podían calcular. En aquel entonces, el término computador o computadora se refería a un humano (generalmente una mujer) que realizaba cálculos completamente a mano o con herramientas manuales simples. Los grandes proyectos, como el diseño de artillería o aviones para la guerra, podían emplear cientos de computadoras humanas. Los nuevos computadores digitales eran capaces de realizar estos cálculos miles de veces más rápido. Esto fue, obviamente, una revolución en la computación, pero ¿por qué no se considera como la primera IA sobrehumana? Después de todo, calcular es algo que hacemos con nuestra mente y, desde la década de 1950, las máquinas han sido mejores que los humanos a la hora de calcular. Incluso la más sencilla y barata de las calculadoras portátiles “piensa” incomparablemente más rápido que tú.
De hecho, algunas personas (incluidos algunos de los inventores) se referían a estas nuevas máquinas computacionales como “cerebros electrónicos”. Sin embargo, hoy en día los cálculos complejos por sí mismos no se consideran como parte de la inteligencia artificial. Una posible razón es que son obviamente formalizables: existen reglas claras sobre cómo realizar un cálculo descomponiéndolo en una serie de cálculos parciales más pequeños y simples. Puede que sea porque el proceso es tan obviamente mecanizable que no consideramos a las calculadoras portátiles como IA sobrehumana, a pesar de que los humanos piensan cuando calculan. Otra razón podría ser que el término “inteligencia artificial” se inventó después de los computadores digitales, de modo que las formas anteriores de “pensamiento” mecánico no contarían.
No obstante, las matemáticas requieren de otras tareas cognitivas además de realizar cálculos. Al fin y al cabo, los matemáticos no se pasan el día solo calculando: lo que hacen es más bien desarrollar nuevas matemáticas. O, dicho en otras palabras, demuestran teoremas y, lo que es más importante, razonan sobre qué teoremas deben demostrarse y mediante qué estrategias, con el fin de crear nuevos conocimientos matemáticos útiles y hermosos. Si aceptamos que el desarrollo de nuevas matemáticas requiere inteligencia, entonces un sistema que pueda demostrar teoremas al nivel de un humano debería considerarse como inteligencia artificial. Y, si lo hace mejor que los humanos, sería una inteligencia sobrehumana.
En 1956, Allen Newell y Herbert Simon se preguntaron si podrían hacer que un computador demostrara teoremas matemáticos. En ese entonces existían muy pocos computadores digitales y, por lo general, estos eran del tamaño de salas enteras. Newell y Simon eligieron como dominio las demostraciones de los fundamentos de las matemáticas, específicamente las del monumental libro de comienzos del siglo XX, Principia Mathematica, que intentaba fundamentar las matemáticas en la lógica pura.2 Diseñaron un programa llamado Logic Theorist y le encargaron redescubrir los teoremas del Principia.3 En esencia, el Logic Theorist es un algoritmo de búsqueda que automatiza el proceso de reescribir demostraciones siguiendo reglas conocidas para la manipulación de ecuaciones, algunas de las cuales se aprenden en la escuela secundaria. El algoritmo comienza con un conjunto de axiomas y los reescribe gradualmente hasta que logra demostrar lo que se propuso. Sin embargo, estos axiomas pueden ser reescritos de un sinfín de formas diferentes, la mayoría de las cuales no son interesantes. Por ello, el Logic Theorist incluía reglas o heurísticas diseñadas para imitar lo que los humanos consideran formas interesantes de reescribir teoremas. Utilizando estas heurísticas, el Logic Theorist logró redescubrir treinta y ocho de los primeros cincuenta y dos teoremas del Principia. Este logro fue verdaderamente notable para la época, considerando los muchos años que les tomó a Bertrand Russell y Alfred North Whitehead, matemáticos eminentes, descubrir dichos teoremas por primera vez.
Considerando que el Logic Theorist redescubrió estos teoremas miles de veces más rápido que Russell y Whitehead y, en ocasiones, generó demostraciones más detalladas, puede bien ser considerado como un sistema de inteligencia artificial sobrehumana. Sin embargo, el dominio en el que supera a los humanos es muy limitado, esencialmente restringido al Principia Mathematica. Si tuviera que demostrar algo en otras áreas de las matemáticas, sería necesario proporcionarle nuevos axiomas y, probablemente, también nuevas heurísticas.
El Logic Theorist fue desarrollado en los años cincuenta, por lo que sería razonable esperar que hayamos avanzado algo desde entonces. Y así es. Sesenta y cinco años de investigación en el subcampo de la inteligencia artificial denominado demostración automática de teoremas han dado lugar a una serie de impresionantes sistemas de IA que, en ocasiones, han generado teoremas novedosos o, al menos, demostraciones nuevas e interesantes de teoremas ya descubiertos. No obstante, las matemáticas siguen siendo desarrolladas por matemáticos humanos. Si revisamos las revistas académicas del campo de las matemáticas, veremos que los artículos que detallan los avances recientes están escritos por personas. Es probable, sin embargo, que estos matemáticos utilicen con frecuencia softwares modernos como Mathematica, el cual se basa en muchos de los avances logrados en la demostración automatizada de teoremas. Incluso podrían usar un modelo de lenguaje de gran tamaño, como GPT-4, en alguna etapa del proceso.
Es interesante señalar que Herbert Simon, uno de los creadores del Logic Theorist, afirmó que él y Newell habían inventado una “máquina pensante” y que habían “resuelto el problema mente-cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente”. En retrospectiva, esto puede parecer una exageración absurda, dado que su programa solo podía hacer una cosa: demostrar los teoremas del Principia. Ni siquiera podía demostrar algo sobre, por ejemplo, ecuaciones diferenciales, ni mucho menos escribir un soneto, hacer un dibujo o atarse sus inexistentes cordones de los zapatos. Sin embargo, el programa fue indudablemente un avance importante, y es comprensible que sus limitaciones no fueran tan evidentes en aquel momento. ¿No es, acaso, el acto de pensar similar a demostrar teoremas?
Además de demostrar teoremas matemáticos, ¿qué otras cosas hacen los humanos que requieran inteligencia? ¿Jugar tal vez? A lo largo de la historia de la investigación en inteligencia artificial, los juegos han sido un enfoque importante, con resultados espectaculares en algunos casos.
El ajedrez es quizás el juego que ha sido más relevante para la investigación en IA. No es de extrañar, ya que desde hace mucho tiempo la cultura occidental ha considerado que este clásico juego de mesa requiere y demuestra inteligencia. Ya en la época medieval, nobles, estudiantes y clérigos eran representados disfrutando del ajedrez como si se tratase de un desafío intelectual. En la mitología nórdica, se describe a Odín, el padre de todos y que todo lo ve, disfrutando de un juego similar al ajedrez. Además, jugar bien al ajedrez pareciera requerir un razonamiento sofisticado. Si quieres vencer a un adversario digno, debes elaborar un plan complejo que se ejecute en múltiples pasos, así como reconocer las diversas amenazas y oportunidades que surgen de los movimientos de tu oponente. En el fondo, tienes que superar mentalmente a tu adversario. Es lógico pensar que, si alguien o algo puede jugar al ajedrez, tiene que ser inteligente. Por lo tanto, no es sorprendente que los primeros investigadores de la inteligencia artificial estuvieran obsesionados con crear IA que jugara al ajedrez.
Entonces, ¿cómo puede un computador jugar al ajedrez? El algoritmo básico tras la mayoría de las IA que juegan ajedrez se llama Minimax. Esencialmente, simula todos los movimientos posibles para las piezas blancas (en caso de que juegue con ellas), seguidos por todos los movimientos posibles con los que las piezas negras pueden reaccionar, seguidos por los de las piezas blancas, y así sucesivamente. Al asumir que cada jugador hará en cada turno el mejor movimiento posible, se puede calcular cuál sería el mejor movimiento en un turno determinado. No obstante, calcular todo el árbol de movimientos y reacciones posibles para una partida completa requiere de una enorme cantidad de tiempo; ningún computador actual sería capaz de hacerlo a lo largo de toda una vida. Por lo tanto, en la práctica, las IA de ajedrez solo usan el algoritmo de búsqueda Minimax hasta cierta profundidad, quizá cinco o diez movimientos. La búsqueda se combina entonces con un sinfín de trucos, en particular, formas de evaluar cuándo un estado del tablero es prometedor.4
Desde la década de 1950, los investigadores de IA han estado desarrollando programas de ajedrez, logrando avances constantes al añadir nuevas mejoras al algoritmo original de Minimax. Durante todo ese tiempo, muchos predijeron con confianza que un computador nunca jugaría al ajedrez tan bien como los mejores jugadores humanos. ¿Por qué? Pues porque jugar al ajedrez requiere inteligencia, y los computadores no son inteligentes. Y, ciertamente, el algoritmo Minimax no tiene casi nada que ver con la forma en que entendemos cómo funciona la inteligencia biológica real.5
Por lo tanto, fue una gran sorpresa cuando, en 1997, un computador logró vencer al mejor jugador de ajedrez de la época. IBM invirtió una suma prodigiosa de dinero en construir un computador especializado y en desarrollar el software correspondiente, llamado Deep Blue, para desafiar a Garry Kasparov, el campeón mundial reinante.6 El duelo de seis partidas recibió una gran cobertura mediática, y el resultado, en el que Deep Blue ganó por margen de una partida, causó un gran revuelo dentro y fuera del mundo del ajedrez. La noticia fue ampliamente difundida por medios internacionales, a menudo acompañada de especulaciones sobre lo que este resultado implicaba para nuestra comprensión de la inteligencia. A destacados expertos que habían afirmado que la computadora no tenía ninguna posibilidad de ganar porque carecía de “intuición” o “creatividad” se les pedía que aclararan lo que habían querido decir, y generalmente estos tenían que repensar sus posturas.7
Sin embargo, muchas personas señalaron que Deep Blue solo podía hacer una cosa: jugar ajedrez. En cuanto a la infinidad de otras tareas que los humanos realizan a diario, Deep Blue no era mejor que el Logic Theorist o una tostadora. Los expertos también comentaron repetidas veces que el algoritmo Minimax no se parece en nada al funcionamiento del cerebro humano. En esencia, no es más que un algoritmo de búsqueda. Parecía, entonces, que Deep Blue no era muy inteligente después de todo, o al menos no poseía una inteligencia general. Tal vez parte del dilema radicaba en la elección del ajedrez como dominio del problema: dado que el juego podía ser dominado por un software que, aunque sofisticado, en el fondo no era más que un algoritmo de búsqueda, ¿quizá el ajedrez no requiere realmente inteligencia para ser jugado?
Después de Deep Blue, muchos investigadores de IA se centraron en el Go, otro juego de mesa clásico. El
