5,49 €
Una de las grandes aventuras de nuestro tiempo es la búsqueda de la Inteligencia Artificial. De ella se habla con esperanza, con temor, con escepticismo o con desprecio según las voces. Margaret A. Boden, una de las autoridades mundiales en este campo, nos presenta aquí un completo y accesible "estado de la cuestión". ¿Qué ofrece hoy la IA? ¿Cuáles son sus retos más inmediatos? ¿Existen ya los seres artificiales capaces de sentir emociones? ¿Está cerca la Singularidad, es decir, el momento en que los robots sean más inteligentes que los seres humanos? ¿Siguen vigentes las leyes de la robótica de Asimov? Una lectura crucial para los interesados en los grandes retos tecnológicos y éticos de nuestro siglo, y casi un mapa para abrirse camino entre los complicados conceptos de la Inteligencia Artificial. Por una parte, una breve historia de la computación, y por otra un sucinto tratado de filosofía práctica sobre qué es la mente humana y cómo trabaja.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Veröffentlichungsjahr: 2017
Título:
Inteligencia artificial
© Margaret A. Boden, 2016
Edición original en inglés: AI. Its Nature and Future
Margaret A. Boden, 2016
De esta edición:
© Turner Publicaciones S.L., 2017
Diego de León, 30
28006 Madrid
www.turnerlibros.com
Primera edición: octubre de 2017
De la traducción del inglés: © Inmaculada Pérez Parra, 2017
Reservados todos los derechos en lengua castellana. No está
permitida la reproducción total ni parcial de esta obra, ni su
tratamiento o transmisión por ningún medio o método sin
la autorización por escrito de la editorial.
ISBN: 978-84-16714-22-3
Diseño de la colección:
Enric Satué
Ilustración de cubierta:
Diseño TURNER
Depósito Legal: M-28740-2017Impreso en España
La editorial agradece todos los comentarios y observaciones:
Para Byron, Oscar, Lukas y Alina.
I
¿Qué es la inteligencia artificial?
II
La inteligencia general es el santo grial
III
Lenguaje, creatividad, emoción
IV
Redes neuronales artificiales
V
Los robots y la vida artificial
VI
Pero ¿es inteligencia de verdad?
VII
La Singularidad
Agradecimientos
Lista de ilustraciones
Notas
Referencias
La inteligencia artificial (IA) tiene por objeto que los ordenadores hagan la misma clase de cosas que puede hacer la mente.
Algunas (como razonar) se suelen describir como “inteligentes”. Otras (como la visión), no. Pero todas entrañan competencias psicológicas (como la percepción, la asociación, la predicción, la planificación, el control motor) que permiten a los seres humanos y demás animales alcanzar sus objetivos.
La inteligencia no es una dimensión única, sino un espacio profusamente estructurado de capacidades diversas para procesar la información. Del mismo modo, la IA utiliza muchas técnicas diferentes para resolver una gran variedad de tareas.
Y está en todas partes.
Encontramos aplicaciones prácticas de la IA en el hogar, en los coches (y en los vehículos sin conductor), en las oficinas, los bancos, los hospitales, el cielo… y en internet, incluido el Internet de las Cosas (que conecta los sensores físicos cada vez más numerosos de nuestros aparatos, ropa y entorno). Algunas se salen de nuestro planeta, como los robots enviados a la Luna y a Marte o los satélites que orbitan en el espacio. Las animaciones de Hollywood, los videojuegos y los juegos de ordenador, los sistemas de navegación por satélite y el motor de búsqueda de Google están basados en técnicas de IA, igual que los sistemas que usan los financieros para predecir los movimientos del mercado de valores y los gobiernos nacionales como guía para tomar decisiones políticas sobre salud y transporte, igual que las aplicaciones de los teléfonos móviles. Añadamos los avatares de la realidad virtual y los modelos de la emoción experimentales creados para los robots de “compañía”. Hasta las galerías de arte utilizan la IA en sus páginas web y también en las exposiciones de arte digital. Desgraciadamente, hay drones militares recorriendo los campos de batalla, pero, por suerte, también hay robots dragaminas.
La IA tiene dos objetivos principales. Uno es tecnológico: usar los ordenadores para hacer cosas útiles (a veces empleando métodos muy distintos a los de la mente). El otro es científico: usar conceptos y modelos de IA que ayuden a resolver cuestiones sobre los seres humanos y demás seres vivos. La mayoría de los especialistas en IA se concentra en un solo objetivo, aunque algunos contemplan ambos.
Además de proporcionar infinidad de chismes tecnológicos, la IA ha influido profundamente en las biociencias. Un modelo informático de una teoría científica es prueba de su claridad y coherencia y una demostración convincente de sus implicaciones (por lo general desconocidas). Que la teoría sea verdad es otro asunto, y dependerá de las pruebas obtenidas por la ciencia en cuestión, pero el modelo puede resultar esclarecedor, incluso si se demuestra que la teoría es falsa.
Concretamente, la IA ha hecho posible que psicólogos y neurocientíficos desarrollen influyentes teorías sobre la entidad mente-cerebro, incluyendo modelos de cómo funciona el cerebro físico y –pregunta distinta pero igualmente importante– qué es lo que hace el cerebro: a qué cuestiones computacionales (psicológicas) responde y qué clases de procesamiento de la información le permiten hacerlo. Quedan muchas preguntas sin responder, ya que la misma IA nos ha enseñado que la mente es mucho más rica de lo que los psicólogos se habían imaginado en un principio.
Los biólogos, también, han utilizado la IA en forma de “vida artificial” (A-Life) para desarrollar modelos computacionales de diversos aspectos de organismos vivos que les ayudan a explicar varios tipos de comportamiento animal, el desarrollo de la forma corporal, la evolución biológica y la naturaleza de la vida misma.
Además de repercutir en las biociencias, la IA ha influido en la filosofía. Muchos filósofos actuales basan sus juicios sobre la mente en conceptos de IA; los utilizan para abordar, por ejemplo, el muy mentado problema mente-cuerpo, el enigma del libre albedrío y los muchos misterios de la conciencia. No obstante, estas ideas filosóficas son extremadamente controvertidas y existen profundas discrepancias sobre si algún sistema de IA podría poseer auténtica inteligencia, creatividad o vida.
Por último, aunque no menos importante, la IA ha puesto en entredicho nuestro concepto de la humanidad y su futuro. Algunos incluso dudan si de hecho tendremos futuro, porque prevén que la IA superará a la inteligencia humana en todos los ámbitos. Aunque algunos pensadores ven esto con agrado, la mayoría lo teme: ¿qué lugar quedará, se preguntan, para la dignidad y la responsabilidad humanas?
Todas estas cuestiones se estudiarán en los capítulos siguientes.
“Pensar en IA –podría decirse–, es pensar en ordenadores”. Bueno, sí y no. Los ordenadores, como tales, no son la cuestión; lo que hacen es lo que importa. Dicho de otro modo: aunque la IA precisa de máquinas físicas (por ejemplo, ordenadores), sería más acertado considerar que utiliza lo que los especialistas en sistemas llaman máquinas virtuales.
Una máquina virtual no es la representación de una máquina en la realidad virtual, ni se parece a un motor de coche simulado para estudiar mecánica; es más bien el sistema de procesamiento de la información que el programador concibe cuando escribe un programa y el que tiene en mente la gente al usarlo.
Como analogía, pensemos en una orquesta. Los instrumentos tienen que funcionar. Madera, metal, piel y tripas de gato deben seguir las leyes de la música para que esta suene como debiera. Pero los que asisten al concierto no se fijan en eso, están más interesados en la música. Tampoco les preocupan las notas individuales, y menos todavía las vibraciones en el aire que provocan el sonido. Están escuchando las “formas” musicales que componen las notas: melodías y armonías, temas y variaciones, ligaduras y síncopas.
En lo que respecta a la IA, la situación es similar. Por ejemplo: un procesador de textos es algo que, para el diseñador que lo concibe, y para el usuario que lo utiliza, trata directamente con palabras y párrafos. Pero, por lo general, el programa en sí mismo no contiene ninguna de esas dos cosas. (Algunos sí, como por ejemplo los avisos de copyright que el usuario puede insertar fácilmente). Y una red neuronal (véase el capítulo IV) se considera una manera de procesar información en paralelo, a pesar de que se suele aplicar (de forma secuencial) en un computador de Von Neumann.
Eso no significa que una máquina virtual sea una ficción útil, un mero producto de nuestra imaginación. Las máquinas virtuales son realidades concretas. Pueden llevar a cabo tareas, tanto dentro del sistema como en el mundo exterior (si están conectadas a dispositivos físicos como cámaras o manos robóticas). Cuando los que se dedican a la IA indagan qué no funciona en un programa que hace algo inesperado, rara vez contemplan fallos en el hardware. Por lo general, se interesan por las reacciones e interacciones causales en la maquinaria virtual, el software.
Los lenguajes de programación también son máquinas virtuales (cuyas instrucciones tienen que ser traducidas al código de la máquina para que las pueda llevar a cabo). Algunos se definen en función de lenguajes de programación de bajo nivel, por lo que requieren una traducción a varios niveles. Los lenguajes de programación son necesarios porque muy pocas personas pueden procesar la información con la configuración de bits que utiliza el código máquina y porque nadie puede pensar en procesos complejos a un nivel tan detallado.
Los lenguajes de programación no son el único caso de máquinas virtuales. Las máquinas virtuales suelen estar compuestas por patrones de actividad (o procesamiento de la información) a varios niveles, y no solo en el caso de las que emplean los ordenadores. Veremos en el capítulo VI que la mente humana se puede considerar una máquina virtual (o más bien como un conjunto de máquinas virtuales que interactúan unas con otras, funcionando en paralelo y desarrolladas o aprendidas en momentos diferentes) que está instalada en el cerebro.
Para que la IA avance, es preciso que progrese la formulación de máquinas virtuales interesantes y útiles. Que haya más ordenadores físicamente potentes (más grandes, más rápidos) está muy bien. Puede que hasta sean necesarios para implementar en ellos ciertos tipos de máquinas virtuales, pero no se les puede sacar provecho hasta que las máquinas virtuales que se ejecuten sean informacionalmente potentes. (De la misma manera, para que haya avances en neurociencia se necesita comprender mejor qué máquinas virtuales psicológicas se ejecutan en las neuronas físicas: véase capítulo VII).
Se utilizan distintas clases de información del mundo exterior. Todo sistema de IA necesita dispositivos de entrada y de salida de datos, aunque sean solo un teclado y una pantalla. Suele haber también sensores con fines específicos (como cámaras o sensores táctiles con forma de bigotes electrónicos) y/o efectores (como sintetizadores de sonido para la música o el habla o manos robóticas). El programa de IA se conecta con estas interfaces del mundo informático, generando cambios en ellas, además de procesar información internamente.
Los procesos de IA suelen incluir también dispositivos internos de entrada y salida de datos que permiten a las distintas máquinas virtuales que hay dentro del sistema interactuar entre sí. Por ejemplo, si una parte de un programa de ajedrez detecta una posible amenaza que sucede en otra, entonces puede conectarse con una tercera para buscar una táctica de bloqueo.
Cómo se procesa la información depende de la máquina virtual de que se trate. Como veremos en capítulos posteriores, hay cinco categorías principales y cada una de ellas tiene múltiples variaciones. Una es la IA clásica o simbólica, a veces llamada GOFAI (por las siglas en inglés de Good Old-Fashioned IA, IA a la antigua). Otra son las redes neuronales o el modelo conexionista. Además, están la programación evolutiva, los autómatas celulares y los sistemas dinámicos.
Cada investigador particular suele utilizar un solo método, aunque también existen las máquinas virtuales híbridas. Por ejemplo, en el capítulo IV se menciona una teoría sobre la actividad humana que fluctúa constantemente entre el procesamiento simbólico y el conexionista. (Esto explica cómo y por qué una persona que lleva a cabo una tarea planificada puede distraerse al notar en el medio algo que no guarda ninguna relación con su tarea). Y en el capítulo V se describe un dispositivo sensoriomotriz que combina robótica “situada”, redes neuronales y programación evolutiva. (Este dispositivo ayuda a que el robot encuentre el camino a “casa”, utilizando un triángulo de cartón como punto de referencia).
Además de sus aplicaciones prácticas, estos enfoques pueden ilustrar la mente, el comportamiento y la vida. Las redes neuronales son útiles para replicar elementos del cerebro y para el reconocimiento de patrones y aprendizajes. La IA clásica (especialmente cuando se combina con la estadística) puede replicar también el aprendizaje, la planificación y el razonamiento. La programación evolutiva esclarece la evolución biológica y el desarrollo cerebral. Los autómatas celulares y los sistemas dinámicos se pueden utilizar para replicar el desarrollo de organismos vivos. Algunas metodologías se acercan más a la biología que a la psicología, y otras se aproximan más al comportamiento irreflexivo que al pensamiento deliberativo. Para entender por completo la gama de mentalidades nos harán falta todas y, seguramente, algunas más.
A muchos de los investigadores de IA no les interesa el funcionamiento de la mente: van detrás de la eficiencia tecnológica, no del entendimiento científico. Aunque sus técnicas se originaron en la psicología, ahora guardan escasa relación con ella. Veremos, no obstante, que para que progrese la IA con fines generales (la inteligencia artificial fuerte, IAF o AGI por sus siglas en inglés) hay que entender más profundamente la arquitectura computacional de la mente.
Lady Ada Lovelace predijo la IA en la década de 1840.1 Más concretamente, predijo parte de ella. Al no haber atisbos de las redes neuronales ni de la IA evolutiva o dinámica, se centró en los símbolos y en la lógica. Tampoco sentía inclinación por el objeto psicológico de la IA, ya que su interés era puramente tecnológico.
Dijo, por ejemplo, que una máquina “podría componer piezas musicales elaboradas y científicas de cualquier grado de complejidad o extensión” y también que podría expresar “los grandes hechos de la naturaleza” y haría posible “una época gloriosa para la historia de las ciencias”. (Así que no le habría sorprendido ver que, dos siglos más tarde, los científicos utilizan “big data” y trucos de programación diseñados especialmente para mejorar los conocimientos de genética, farmacología, epidemiología… La lista es infinita).
La máquina que tenía en mente era la Máquina Analítica. Este dispositivo de engranajes y ruedas dentadas (que nunca se terminó de construir) lo había diseñado su gran amigo Charles Babbage en 1834. A pesar de estar concebida para el álgebra y los números, en lo esencial era equivalente a la computadora numérica polivalente.
Ada Lovelace reconoció la potencial generalidad de la Máquina, su capacidad para procesar símbolos que representasen “todas las materias del universo”. También describió varios fundamentos de la programación moderna: programas almacenados, subrutinas anidadas jerárquicamente, direccionamiento, microprogramas, estructuras de control, sentencias condicionales y hasta los bugs (errores de software). Pero no dijo nada sobre cómo podrían implementarse la composición musical o el razonamiento científico en la máquina de Babbage. La IA era posible, sí, pero cómo llegar a ella seguía siendo un misterio.
Aquel misterio lo aclaró un siglo después Alan Turing. En 1936, Turing demostró que, en principio, un sistema matemático que ahora se llama máquina universal de Turing2 puede llevar a cabo todos los cálculos posibles. Este sistema imaginario crea y modifica combinaciones de símbolos binarios representados por “0” y “1”. Después de descifrar códigos en Bletchley Park durante la Segunda Guerra Mundial, Turing pasó el resto de la década de 1940 pensando en cómo podría hacer un modelo físico aproximado de su máquina definida de manera abstracta (contribuyó al diseño de la primera computadora moderna, que se terminó en Manchester en 1948) y en cómo se podía inducir a un artefacto semejante a desempeñarse con inteligencia.
A diferencia de Ada Lovelace, Turing aceptó ambos fines de la IA. Quería las nuevas máquinas para hacer cosas útiles que por lo general se supone que requieren inteligencia (quizá mediante técnicas muy antinaturales) y también para representar los procesos que acontecen en la mente de base biológica.
El objetivo primordial del artículo de 1950 en el que burlonamente planteó la prueba de Turing (véase capítulo VI) era servir como manifiesto de la IA.3 (Había escrito una versión más completa poco después de la guerra, pero la ley de Secretos Oficiales del Reino Unido impidió que se publicara). En él señalaba las cuestiones fundamentales del procesamiento de la información que intervienen en la inteligencia (juego, percepción, lenguaje y aprendizaje), y daba pistas sugerentes sobre lo que ya se había conseguido. (Solo “pistas”, porque el trabajo que se hacía en Bletchley Park seguía siendo alto secreto). Incluso sugería planteamientos computacionales –como las redes neuronales y la computación evolutiva– que no fueron relevantes hasta mucho más tarde. Pero el misterio distaba mucho de aclararse. Eran observaciones muy generales: programáticas, no programas.
La convicción de Turing de que la IA debía ser posible de algún modo fue apoyada a principios de la década de 1940 por el neurólogo y psiquiatra Warren McCulloch y el matemático Walter Pitts en su artículo “A Logical Calculus of the Ideas Immanent in Nervous Activity” [Un cálculo lógico de las ideas inmanentes en la actividad nerviosa]4 en el que unieron el trabajo de Turing con otros dos elementos interesantes de principios del siglo xx: la lógica proposicional de Bertrand Russell y la teoría de las sinapsis neuronales de Charles Sherrington.
El aspecto fundamental de la lógica proposicional es que es binaria. Se supone que toda oración (llamada también proposición) es verdadera o falsa. No hay término medio; no se reconocen la incertidumbre o la probabilidad. Solo existen dos valores de verdad, esto es, verdadero y falso.
Además, para formar proposiciones complejas e inferir argumentos deductivos se utilizan conectivas lógicas (como y, o y si-entonces) cuyos significados se definen en función de la verdad / falsedad de las proposiciones que los componen. Por ejemplo, si dos (o más) proposiciones están conectadas por y, se supone que ambas / todas son verdaderas. Así, “Mary se casó con Tom y Flossie se casó con Peter” es verdadera si y solo si ambas “Mary se casó con Tom” y “Flossie se casó con Peter” son verdaderas. Si, de hecho, Flossie no se casó con Peter, entonces la proposición compleja que contiene “y” es de por sí falsa.
McCulloch y Pitts podían juntar a Russell y Sherrington porque ambos habían descrito sistemas binarios. Se asignaron los valores verdadero / falso de la lógica a la actividad de encendido / apagado de las células cerebrales y a los 0 / 1 de cada estado de las máquinas de Turing. Sherrington no creía que las neuronas estuviesen estrictamente encendidas / apagadas, sino que también tenían umbrales fijos. Así, definieron las compuertas lógicas (los y, o y no computacionales) como redes neuronales minúsculas que podían interconectarse para representar proposiciones extremadamente complejas. Todo lo que pudiera expresarse mediante lógica proposicional podía ser calculado por alguna red neuronal y por alguna máquina de Turing.
En suma, la neurofisiología, la lógica y la computación se agruparon, y apareció también la psicología. McCulloch y Pitts creían (como muchos filósofos en aquel entonces) que el lenguaje natural se reduce, en lo esencial, a lógica. Por tanto, todo razonamiento y opinión, desde los argumentos científicos a los delirios esquizofrénicos, era agua para su molino teórico. Auguraron que, para el conjunto de la psicología, “una descripción detallada de la red [neural] aportaría todo lo que se puede conseguir en ese campo”.
La implicación principal estaba clara: uno y el mismo enfoque teórico (esto es, la computación de Turing) podía aplicarse a la inteligencia humana y a la artificial. (El artículo de McCulloch / Pitts influyó incluso en el diseño de los computadores. A John von Neumann, que pretendía en aquel entonces usar el sistema decimal, le hizo reflexionar y cambiar al código binario).
Turing, por supuesto, estaba de acuerdo. Pero no pudo aportar mucho más a la IA: la tecnología disponible era demasiado primitiva. A mediados de la década de 1950, sin embargo, se desarrollaron máquinas más potentes y/o más fáciles de usar. “Fácil de usar”, en este caso, no significa que fuese más fácil pulsar los botones del ordenador o moverlo por la habitación. Más bien significa que era más fácil definir nuevas máquinas virtuales (por ejemplo, lenguajes de programación), que podrían utilizarse con mayor facilidad para definir máquinas virtuales de mayor nivel (por ejemplo, programas matemáticos o de planificación).
La investigación sobre la IA simbólica, en líneas generales con el mismo espíritu del manifiesto de Turing, comenzó a ambos lados del Atlántico. Un referente de finales de la década de 1950 fue el jugador de damas de Arthur Samuel, que llegó a los titulares de los periódicos porque aprendió a ganarle a su propio creador.5 Era un indicio de que los ordenadores podrían desarrollar inteligencia suprahumana algún día y superar las capacidades de sus programadores.
El segundo de estos indicios tuvo lugar a finales de la década de 1950, cuando la Máquina de la Teoría Lógica no solo demostró dieciocho de los teoremas lógicos principales de Russell, sino que además halló una prueba más elegante para uno de ellos.6 Fue algo verdaderamente impresionante, porque si bien Samuel no era más que un jugador de damas mediocre, Russell era un lógico de primera fila a nivel mundial. (Russell mismo estaba encantado con el logro, pero el Journal of Symbolic Logic rechazó publicar un artículo cuyo autor fuese un programa de ordenador, sobre todo porque no había demostrado un teorema nuevo).
La Máquina de la Teoría Lógica no tardó en ser superada por el Solucionador General de Problemas (GPS por sus siglas en inglés);7 “superada” no porque pudiese sobrepasar a otros genios sobresalientes, sino porque no se limitaba a un solo campo. Como su nombre sugiere, el Solucionador General de Problemas podía aplicarse a cualquier problema que pudiera representarse (como se explica en el capítulo II) en términos de objetivos, subobjetivos, medios y operaciones. Les correspondía a los programadores identificar los objetivos, medios y operaciones relevantes para cualquier campo específico, pero, una vez hecho esto, se le podía dejar el razonamiento al programa.
El GPS logró resolver el problema de “los misioneros y los caníbales”, por ejemplo. (Tres misioneros y tres caníbales en una ribera del río; una barca con espacio para dos personas; ¿cómo pueden cruzar el río todos sin que el número de caníbales sea mayor al de misioneros?). Es difícil incluso para los seres humanos, porque hay que retroceder para poder avanzar. (¡El lector puede intentar resolverlo usando moneditas!).
La Máquina de la Teoría Lógica y el Solucionador General de Problemas fueron ejemplos tempranos de la inteligencia artificial simbólica o GOFAI. Ahora están “pasados de moda”, por supuesto, pero también fueron “buenos”, como pioneros en el uso de heurísticas y planificación, ambas extremadamente importantes en la IA actual (véase capítulo II).
La inteligencia artificial simbólica no fue el único tipo de IA inspirada por el artículo “Logical Calculus”; también para el conexionismo fue alentadora. En la década de 1950, las redes de neuronas lógicas de McCulloch-Pitts, bien construidas expresamente, bien simuladas en computadores digitales, fueron usadas (por Albert Uttley, por ejemplo)8 para crear modelos de aprendizaje asociativo y reflejos condicionados. (A diferencia de las redes neuronales actuales, hacían procesos locales, no distribuidos: véase el capítulo IV).
Pero los primeros modelos de redes no estaban dominados por completo por la neurología. Los sistemas que a mediados de la década de 1950 implementó Raymond Beurle (en ordenadores analógicos) eran muy diferentes.9 En vez de redes de compuertas lógicas diseñadas al detalle, empezó con parrillas bidimensionales (matrices) de unidades conectadas al azar y umbrales variables. Vio que la autoorganización neuronal se debía a dinámicas de activación, construcción, expansión, persistencia, muerte y a veces de interacción.
Como bien notó Beurle, decir que una máquina basada únicamente en la lógica podía replicar los procesos psicológicos no era como decir que el cerebro fuese en realidad como tal máquina. McCulloch y Pitts ya lo habían señalado. Apenas cuatro años después de su revolucionario primer artículo, publicaron otro argumentando que el funcionamiento del cerebro se parece más a la termodinámica que a la lógica.10 La lógica le cedió el paso a la estadística, la unidad a la colectividad y la pureza determinista al ruido de las probabilidades.
Dicho de otro modo, habían descrito lo que ahora se llama computación distribuida tolerante a fallos (véase capítulo IV). Entendieron este nuevo enfoque como “extensión” del anterior, no como contradicción, pero era más realista en el aspecto biológico.
La influencia de McCulloch en los primeros tiempos de la IA no se limitó a la inteligencia artificial simbólica y al conexionismo. Sus conocimientos tanto de neurología como de lógica lo convirtieron en un líder inspirador para el incipiente movimiento cibernético de la década de 1940.
Los cibernéticos se centraron en la autoorganización biológica, que abarcaba varias clases de adaptación y metabolismo, incluyendo el pensamiento autónomo y el control motor, así como la regulación (neuro)fisiológica. Su concepto principal era la “causalidad circular” o retroalimentación, y la teleología u orientación a un fin era un concepto clave. Estas ideas estaban íntimamente relacionadas, ya que la retroalimentación dependía de las diferencias entre los objetivos: la distancia real al objetivo en cada momento servía de orientación para el siguiente paso.
Norbert Wiener (que diseñó misiles antibalísticos durante la guerra) dio nombre al movimiento en 1948; definiéndolo como “el estudio del control y la comunicación de animales y máquinas”.11 Los cibernéticos que hacían modelos computacionales por lo general se inspiraban en la automatización y la computación análogica más que en la lógica y la computación digital. Sin embargo, la distinción no estaba bien definida. Por ejemplo, las diferencias entre objetivos se utilizaban tanto para controlar misiles teledirigidos como para enfocar la resolución de problemas simbólicos. Además, Turing, el campeón de la IA clásica, utilizaba ecuaciones dinámicas (en la descripción de la difusión química) para definir sistemas autoorganizados en los que la estructura nueva, como puntos o segmentos, podía surgir de cualquier procedencia homogénea (véase capítulo V).12
Otros de los primeros miembros del movimiento fueron el psicólogo experimental Kenneth Craik, el matemático John von Neumann, los neurólogos William Grey Walter y William Ross Ashby, el ingeniero Oliver Selfridge, el psiquiatra y antropólogo Gregory Bateson y el químico y psicólogo Gordon Pask.13
Craik, que murió en 1943 a los 31 años en un accidente de bicicleta, antes del advenimiento de las computadoras digitales, se refirió a la computación analógica al estudiar el sistema nervioso. Describió la percepción, la acción motriz y la inteligencia en general como si las orientase la retroalimentación de los “modelos” cerebrales.14 Más tarde, su concepto de los modelos cerebrales o representaciones influiría enormemente en la IA.
A Von Neumann le había intrigado la autoorganización a lo largo de la década de 1930 y se quedó muy impresionado con el primer artículo de McCulloch y Pitts. Además de cambiar el diseño básico computacional, pasando del sistema decimal al binario, adaptó las ideas de ellos para explicar la evolución biológica y la reproducción. Dio forma a varios autómatas celulares: sistemas fabricados a partir de muchas unidades computacionales, cuyos cambios seguían reglas simples que dependían del estado de las unidades vecinas en cada momento.15 Algunas podían replicar a otras. Llegó a definir un replicador universal capaz de copiar cualquier cosa, incluso a sí mismo. Los errores en la replicación, decía, podían llevar a la evolución.
Von Neumann definió los autómatas celulares en términos informativos abstractos, aunque se podían encarnar de muchas formas, por ejemplo, en robots de auto-ensamblaje, en la difusión química de Turing, en las ondas físicas de Beurle o, como pronto se vio, en el ADN.
Desde finales de la década de 1940, Ashby desarrolló el Homeostato, un modelo electroquímico de homeostasis fisiológica.16 Esta máquina misteriosa era capaz de adaptarse a un estado de equilibrio global sin importar los valores que se le asignaran en principio a sus 100 parámetros (aceptaba casi 400.000 condiciones iniciales diferentes). Demostraba la teoría de la adaptación dinámica de Ashby, tanto dentro del cuerpo (sin olvidar el cerebro) como entre el cuerpo y el medio exterior, en el aprendizaje por ensayo y error y en el comportamiento adaptativo.
Grey Walter también estaba estudiando el comportamiento adaptativo, pero de forma muy diferente.17 Construyó mini-robots parecidos a tortugas, cuyo circuito electrónico sensoriomotor encajaba en la teoría de reflejos neuronales de Sherrington. Estos robots situados pioneros mostraban comportamientos naturales como seguir la luz, esquivar obstáculos y aprender de modo asociativo mediante reflejos condicionados. Eran lo bastante fascinantes como para ser mostrados al público en el Festival de Bretaña en 1951.
Diez años después, Selfridge (nieto del fundador de los grandes almacenes de Londres del mismo nombre) utilizó métodos simbólicos para implementar básicamente un sistema de procesamiento en paralelo llamado Pandemonium.18
Este programa de inteligencia artificial simbólica aprendía a reconocer patrones mediante muchos “demonios” de nivel inferior que buscaban cada uno una única entrada perceptual y transmitían el resultado a demonios de un nivel superior. Sopesaban la consistencia de los rasgos reconocidos (por ejemplo, solo dos rayas horizontales en una F) y descartaban los rasgos que no cuadraban. Los niveles de fiabilidad podían variar y se tenían en cuenta: se hacía más caso a los demonios que gritaban más alto. Finalmente, un demonio principal escogía el patrón más plausible dada la evidencia disponible (muchas veces contradictoria). Este estudio influyó tanto en el conexionismo como en la IA simbólica. (Una ramificación muy reciente es el modelo de conciencia LIDA: véase el capítulo VI).
A Bateson le interesaban poco las máquinas, pero a finales de la década de 1960 basó sus teorías sobre cultura, alcoholismo y el “doble vínculo” en la esquizofrenia en unas ideas acerca de la comunicación (por ejemplo, la retroalimentación) que había sacado previamente de las reuniones de cibernéticos. Y desde mediados de la década de 1950, Pask (descrito por McCulloch como “el genio de los sistemas autoorganizados”) utilizó ideas cibernéticas y simbólicas en muchos proyectos diferentes, como teatro interactivo, robots que se comunicaban mediante música, arquitectura que aprendía y se adaptaba a los objetivos del usuario, conceptos que se autoorganizaban químicamente y máquinas de enseñar. Estas últimas permitían que se tomasen rutas diferentes a través de una representación compleja del conocimiento, así que servían tanto para el aprendizaje paso a paso como para los estilos cognitivos holísticos (y una variable tolerancia a lo irrelevante).
En suma, a finales de la década de 1960, y en algunos casos mucho antes, se estaban concibiendo e incluso implementando todos los tipos principales de IA.
La mayoría de los científicos que participaron son reverenciados de forma generalizada hoy. Pero Turing era el único invitado constante a los banquetes de la IA; durante muchos años, solo un subgrupo de la comunidad científica recordaba a los demás. Grey Walter y Ashby, en particular, cayeron prácticamente en el olvido hasta finales de 1980, cuando se los distinguió (igual que a Turing) como abuelos de la vida artificial. Pask tuvo que esperar aún más para ser reconocido. Para entender el porqué, hay que saber cómo se dividieron los modelos computacionales.
