Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Si quieres saber qué es la Inteligencia Artificial, lee este libro ― Peter Thiel, fundador de PayPal. Los mesías del futuro insisten en afirmar que la Inteligencia Artificial pronto eclipsará las capacidades de las mentes humanas con más talento. Según ellos, no queda ninguna esperanza, pues el avance de las máquinas superinteligentes es imparable. Pero la realidad es que ni estamos en el camino hacia el desarrollo de máquinas inteligentes ni sabemos siquiera dónde podría hallarse ese camino. Erik Larson es un científico e investigador pionero en el procesamiento del lenguaje natural, además de empresario tecnológico que trabaja a la vanguardia de la IA. En este libro nos acompaña en un recorrido por el panorama actual de este ámbito para demostrar lo lejos que estamos realmente de la superinteligencia y qué sería necesario para llegar a ella. Desde Alan Turing, los entusiastas de la inteligencia artificial han caído en el profundo error de equipararla con la inteligencia humana. Pero la IA trabaja con el razonamiento inductivo, procesando conjuntos de datos para predecir resultados, mientras que los humanos no correlacionamos conjuntos de datos: hacemos conjeturas a partir de la información del contexto y de la experiencia. No tenemos ni idea de cómo programar este tipo de razonamiento basado en la intuición, conocido como razonamiento abductivo. El verdadero problema es que la exageración alrededor de la IA no solo es mala ciencia, sino que también es mala para la ciencia. La cultura de la innovación florece cuando explora lo desconocido, no cuando exagera las virtudes de las tecnologías existentes. La IA inductiva seguirá mejorando en la realización de tareas específicas, pero si queremos lograr un progreso real, debemos comenzar por apreciar plenamente la única inteligencia verdadera que conocemos: la nuestra.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 536
Veröffentlichungsjahr: 2022
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
EL MITO DE LA INTELIGENCIA ARTIFICIAL
EL MITO DE LA INTELIGENCIA ARTIFICIAL
Por qué las máquinas no pueden pensar como nosotros lo hacemos
ERIK J. LARSON
Traducción de Milo J. Krmpotić
El mito de la Inteligencia Artificial. Por qué las máquinas no pueden pensar como nosotros lo hacemos
Título original: The Myth of Artificial Intelligence. Why computers can't think the way we do
© 2021 Erik J. Larson
© de esta edición, Shackleton Books, S. L., 2022
La presente edición se publica en acuerdo con Harvard University Press a través de International Editors' Co
© Traducción: Milo J. Krmpotic
@Shackletonbooks
www.shackletonbooks.com
Realización editorial: La Letra, S. L.
Diseño de cubierta: Pau Taverna
Conversión a ebook: Iglú ebooks
ISBN: 978-84-1361-202-7
Reservados todos los derechos. Queda rigurosamente prohibida la reproducción total o parcial de esta obra por cualquier medio o procedimiento y su distribución mediante alquiler o préstamo públicos.
Índice
Para Brooke y Ben
En las páginas de este libro vas a leer acerca del mito de la inteligencia artificial. Lo de «mito» no se refiere a la imposibilidad de una IA verdadera. A ese respecto, el futuro de la IA es un misterio para la ciencia. El mito de la inteligencia artificial consiste en afirmar que su llegada es inevitable, mera cuestión de tiempo —que nos hemos adentrado ya en el sendero que conducirá a una IA de nivel humano, y más tarde a una superinteligencia—. No es así. Ese sendero existe solo en nuestra imaginación. Sin embargo, el carácter inevitable de la IA se encuentra tan arraigado en el debate popular —promovido por los expertos de los medios de comunicación, por referentes intelectuales como Elon Musk e incluso por numerosos científicos de IA (aunque desde luego no por todos ellos)— que, a menudo, cualquier pega que se le ponga se considera una forma de ludismo, o por lo menos una visión corta de miras sobre el futuro de la tecnología y un fracaso peligroso a la hora de prepararse para un mundo de máquinas inteligentes.
Tal y como os voy a mostrar, la ciencia de la IA ha revelado un misterio de grandes dimensiones en el núcleo de la inteligencia, y en la actualidad nadie tiene la menor idea de cómo resolverlo. Los partidarios de la IA cuentan con inmensos incentivos para minimizar sus limitaciones. Al fin y al cabo, la IA es un negocio enorme y tiene una presencia cada vez más predominante en la cultura. No obstante, nos guste o no, la posibilidad de un futuro de sistemas de IA se encuentra limitada por lo que sabemos en la actualidad sobre la naturaleza de la inteligencia. Y aquí deberíamos afirmarlo con franqueza: todas las pruebas sugieren que las inteligencias humana y artificial son radicalmente diferentes. El mito de la IA insiste en que esas diferencias son solo temporales, y en que la aparición de sistemas más potentes acabará por erradicarlas. Futurólogos como Ray Kurzweil y el filósofo Nick Bostrom, prominentes proveedores del mito, hablan no solo como si la IA de nivel humano resultara inevitable, sino como si, al poco de su llegada, las máquinas superinteligentes fueran a dejarnos muy atrás.
Este libro explica dos aspectos importantes del mito de la IA, uno de tipo científico y otro cultural. La parte científica del mito asume que solo tenemos que seguir «desnudando la cebolla» del desafío de la inteligencia general, avanzando en hitos restrictivos de la inteligencia como la participación en juegos o el reconocimiento de imágenes. Se trata de un error grave: el éxito en las aplicaciones débiles no nos acerca ni un solo paso a la inteligencia general. Las inferencias que requieren los sistemas de cara a alcanzar una inteligencia general —leer el periódico, o mantener una conversación elemental, o ejercer de ayudante, como el robot Rosie de Los Supersónicos— no se pueden programar, aprender ni diseñar a partir de nuestro conocimiento actual de la IA. Al aplicar con éxito versiones de inteligencia más simples y débiles, que se benefician del uso de ordenadores más rápidos y de montones de datos, no estamos obteniendo un avance progresivo, sino que nos limitamos a recoger sus frutos maduros. El salto hacia un «sentido común» general es completamente diferente, y no se conoce camino alguno que lleve de lo uno a lo otro. No existe ningún algoritmo para la inteligencia general. Y tenemos buenos motivos para mostrarnos escépticos ante la idea de que dicho algoritmo vaya a surgir de nuevas tentativas con los sistemas de aprendizaje profundo o de cualquier otra aproximación popular en la actualidad. Resulta mucho más probable que vaya a requerir de un avance científico de primer orden, y ahora mismo nadie tiene la más remota idea del aspecto que tendría ese avance, y mucho menos de los detalles que conducirán a él.
La mitología sobre la IA es negativa, pues, porque oculta un misterio científico bajo la cháchara interminable del progreso continuado. El mito sostiene la creencia en un éxito inevitable, pero el respeto genuino por la ciencia debería hacer que volviéramos a la casilla de salida. Eso nos conduce al segundo tema de estas páginas: las consecuencias culturales del mito. Perseguir un mito no es la mejor manera de obtener «inversiones expertas», y ni siquiera una posición neutral. Es malo para la ciencia y es malo para nosotros. ¿Por qué? Un motivo es que resulta poco probable que alcancemos innovaciones si decidimos ignorar un misterio tan básico en vez de afrontarlo. La versión saludable de la cultura de la innovación pone el énfasis en la exploración de lo que se desconoce, no en dar bombo a la ampliación de unos métodos ya existentes —sobre todo cuando esos métodos se han revelado inadecuados para llevarnos mucho más allá—. La mitología acerca del éxito inevitable de la IA tiende a extinguir la cultura misma de la invención, tan necesaria para obtener un avance real —con la IA de nivel humano o sin ella—. El mito también fomenta la resignación ante el progresivo avance hacia una tierra de máquinas, donde la invención genuina se deja de lado en favor de charlas futuristas que defienden los métodos actuales, a menudo desde intereses particulares.
¿Quién debería leer este libro? Sin duda, cualquier persona que se emocione con la idea de la IA pero que se esté preguntando por qué siempre aparece a diez o veinte años vista. Hay un motivo científico para ello, que explicaré. También deberías leer este libro si piensas que el progreso de la IA hacia la superinteligencia es inevitable y te preocupa lo que habrá que hacer cuando llegue. Aunque no puedo demostrar que una autoridad suprema de la IA no vaya a aparecer algún día, sí puedo ofrecerte razones para que descartes con rigurosidad la perspectiva de ese escenario. Más en general, debes leer este libro si sientes curiosidad pero a la vez te encuentras confundido por el bombo generalizado que rodea a la IA en nuestra sociedad. Te explicaré los orígenes del mito de la IA, lo que sabemos y lo que ignoramos acerca de la perspectiva de alcanzar una IA de nivel humano, y el motivo por el que deberíamos apreciar mejor la única inteligencia verdadera que conocemos: la nuestra.
En la primera parte, «El mundo simplificado», explico que la cultura de la IA nos ha llevado a simplificar nuestras ideas sobre la gente a la vez que expandía nuestro conocimiento acerca de la tecnología. Esto comenzó con el fundador de la IA, Alan Turing, e incluye una serie de simplificaciones comprensibles pero desafortunadas que yo denomino «errores de inteligencia». Esos errores iniciales fueron magnificados hasta acabar conformando una ideología por parte de un amigo de Turing, el estadístico I. J. Good, quien introdujo la idea de «ultrainteligencia» como resultado predecible tras la consecución de una IA de nivel humano. Entre Turing y Good vemos cobrar forma al mito moderno de la IA. Su desarrollo nos ha conducido a una época de lo que yo llamo «tecnología kitsch», imitaciones baratas de ideas más profundas que anulan el compromiso inteligente y debilitan nuestra cultura. Lo kitsch nos indica lo que hemos de pensar y lo que hemos de sentir. Los proveedores del kitsch sacan rédito de él, mientras que los consumidores de ese kitsch experimentan una pérdida; acaban —acabamos— metidos en un mundo de frivolidad.
En la segunda parte, «El problema de la inferencia», argumento que no tenemos la menor idea sobre cómo programar o diseñar el único tipo de inferencia —de pensamiento, en otras palabras— que funcionará con una IA de nivel humano (o cualquier otra cosa que se le acerque). El problema de la inferencia apunta al corazón del debate sobre la IA porque trata directamente con la inteligencia, la de la gente o la de las máquinas. Nuestro conocimiento acerca de los distintos tipos de inferencia se remonta a Aristóteles y a otros griegos de la Antigüedad, y se ha desarrollado en los ámbitos de la lógica y de las matemáticas. La inferencia ya se describe usando sistemas formales y simbólicos como los programas informáticos, así que explorándola se puede obtener una visión muy clara del proyecto con el que diseñar la inteligencia. Hay tres tipos de inferencia. La IA clásica exploró uno (las deducciones), la IA moderna explora otro (las inducciones). Y el tercer tipo (las abducciones) conduce a la inteligencia general y, sorpresa: nadie está trabajando en él —nadie en absoluto—.1 Por último, puesto que todos los tipos de inferencia son distintos —con ello quiero decir que ninguno de esos tipos puede rebajarse hasta convertirse en otro—, sabemos que un fracaso a la hora de construir sistemas de IA que usen el tipo de inferencia en el que se afianza la inteligencia general conducirá al fracaso de los avances hacia la inteligencia artificial general, o IAG.
En la tercera parte, «El futuro del mito», argumento que, cuando se lo toma uno en serio, el mito tiene consecuencias muy negativas, ya que subvierte la ciencia. En especial, erosiona la cultura de la invención y la inteligencia humanas, que resultan necesarias en aquellos descubrimientos imprescindibles para comprender nuestro propio futuro. La ciencia de datos (la aplicación de la IA a los macrodatos) es, en el mejor de los casos, una prótesis del ingenio humano; en caso de usarla de manera correcta, nos ayudará a lidiar con el «diluvio de datos» contemporáneo. Cuando se la usa para reemplazar la inteligencia individual, tiende a estropear la inversión sin ofrecer ningún resultado. Explico, en especial, que el mito ha afectado negativamente la investigación en neurociencia, entre otros avances científicos recientes. Estamos pagando un precio demasiado elevado por este mito. Como no poseemos ninguna buena razón científica para creer que el mito pueda hacerse realidad, puesto que contamos con todos los motivos para rechazarlo a fin de alcanzar la prosperidad en el futuro, tenemos que repensar de manera radicalla conversación sobre la IA.
A Turing le fascinaba el juego del ajedrez —igual que a I. J. «Jack» Good, su colega matemático en tiempos de guerra. Cuando se enfrentaban (solía ganar Good), elaboraban procesos de decisión y reglas de oro para los movimientos ganadores. Jugar al ajedrez implica seguir las reglas del juego (ingenio), pero también parece requerir de cierta percepción (intuición) sobre las jugadas que pueden elegirse según las diferentes posiciones que se den sobre el tablero. Para ganar al ajedrez no basta con aplicar las reglas; en primer lugar, hay que saber qué reglas escoger.
Turing veía el ajedrez como una manera útil (y sin duda entretenida) de pensar sobre las máquinas y la posibilidad de conferirles intuición. Al otro lado del Atlántico, el fundador de la teoría de la información moderna, Claude Shannon, colega y amigo de Turing en Bell Labs, también pensaba en el ajedrez. Más adelante construyó uno de los primeros ordenadores que lo jugaron, una ampliación de la labor que había realizado anteriormente en un protoordenador llamado «el analizador diferencial», que podía convertir ciertos problemas de cálculo en procedimientos mecánicos.1
El ajedrez fascinaba a Turing y a sus colegas en parte porque parecía que un ordenador podría programarse para jugar sin que la persona que lo programara necesitara saber todo por anticipado. Puesto que los dispositivos informáticos implementaban conectores lógicos como si-entonces, o e y, se podría ejecutar un programa (un conjunto de instrucciones) que generara resultados diferentes dependiendo de los escenarios con los que se encontrara mientras repasaba sus instrucciones. Esa capacidad para cambiar de rumbo según lo que «viera» parecía, a juicio de Turing y sus colegas, simular un aspecto fundamental del pensamiento humano.2
Los jugadores de ajedrez —Turing, Good, Shannon y demás— tenían también en la cabeza otro problema matemático con una apuesta mucho más elevada. Trabajaban para sus gobiernos, ayudando a descifrar los códigos secretos que usaba Alemania para coordinar sus ataques contra los barcos comerciales y militares que cruzaban el canal de la Mancha y el océano Atlántico. Turing se comprometió con un esfuerzo desesperado por ayudar a derrotar a la Alemania nazi durante la segunda guerra mundial, y fueron sus ideas sobre computación las que contribuyeron a alterar el curso de la guerra.
Bletchley Park, sita de manera discreta en un pueblo pequeño y alejado del reguero de bombas que caían sobre Londres y la Gran Bretaña metropolitana, era un centro de investigación establecido para ayudar a descubrir la localización de los U-boote, los submarinos alemanes, que causaban estragos en las rutas marinas del canal de la Mancha. Los submarinos nazis representaban un problema capital para las fuerzas aliadas; habían hundido miles de embarcaciones y destruido enormes cantidades de suministros y equipamiento. Para mantener el esfuerzo de guerra, Gran Bretaña necesitaba importaciones de treinta millones de toneladas al año. En un momento dado, los U-boote llegaron a reducir esa cantidad en 200.000 toneladas al mes, siguiendo una estrategia de guerra reveladora y potencialmente catastrófica, para la que durante bastante tiempo no hubo réplica. En respuesta, el gobierno británico reunió a un grupo de criptoanalistas, jugadores de ajedrez y matemáticos talentosos para que investigaran la manera de descifrar las comunicaciones con los submarinos, conocidas como «cifrados». (Un «cifrado» es un mensaje oculto. Descifrar un mensaje consiste en convertirlo de nuevo en un texto legible.)3
Los códigos se generaban a través de un aparato con aspecto de máquina de escribir conocido como Enigma, que se comercializaba desde los años 1920 pero que los alemanes habían reforzado de manera importante para usarla en la guerra. Las máquinas Enigma modificadas se utilizaron en todo tipo de comunicaciones estratégicas dentro del esfuerzo de guerra nazi. La Luftwaffe, por ejemplo, las usó en su gestión de la guerra aérea, y lo mismo hizo la Kriegsmarine en sus operaciones navales. En general, se consideraba que los mensajes encriptados con la máquina Enigma modificada eran indescifrables.
El papel que Turing desempeñó en Bletchley y su consiguiente ascenso a la categoría de héroe nacional después de la guerra es una historia que ya se ha contado muchas veces. (En 2014, una gran producción cinematográfica, The Imitation Game [Descifrando Enigma],dramatizó su trabajo en Bletchley, así como su rol consiguiente en el desarrollo de los ordenadores.) El mayor logro de Turing fue relativamente desaborido, según criterios matemáticos puros, porque explotó una vieja idea de la lógica deductiva. El método, al que él y otras personas se referían medio en broma como «turinguismo», se basó en eliminar amplios números de posibles soluciones para los códigos de Enigma encontrando combinaciones en las que hubiera contradicciones. Las combinaciones contradictorias son una imposibilidad; en un sistema lógico no puede darse «A» y «no A» a la vez, tal y como no podemos estar «en la tienda» y «en casa» al mismo tiempo. El turinguismo fue una idea ganadora, y se convirtió en un gran éxito en Bletchley. Logró lo que se había exigido a aquellos «jóvenes genios» recluidos en el laboratorio de ideas al acelerar el descifrado de los mensajes de Enigma. Otros científicos de Bletchley concibieron estrategias diferentes para descifrar los códigos.4 Sus ideas se ponían a prueba con una máquina llamada Bombe —nombre burlón que provenía de una máquina polaca anterior, la Bomba, y que con toda probabilidad se inspiró en los ruiditos que esta realizaba al terminar cada uno de sus cálculos—. Pensemos en la Bombe como en un protoordenador, capaz de ejecutar diferentes programas.
Más o menos en 1943, el Eje perdió su ventaja bélica en beneficio de las fuerzas aliadas, y ello se debió en no poca medida al esfuerzo continuado de los descifradores de Bletchley. Aquel equipo obtuvo un éxito célebre, y sus miembros se convirtieron en héroes de guerra. Hicieron carrera. Bletchley, mientras tanto, también se reveló como un refugio para el pensamiento dedicado a la computación: la Bombe era una máquina que ejecutaba programas para resolver problemas que los seres humanos por sí mismos no podían solucionar.
En el caso de Turing, Bletchley desempeñó un papel capital de cara a que materializara sus ideas sobre la posibilidad de crear máquinas inteligentes. Igual que sus colegas Jack Good y Claude Shannon, Turing percibió el poder y la utilidad de sus «juegos mentales» como criptoanalistas durante la guerra: podían descifrar mensajes que de otro modo resultaban completamente opacos para los militares. Los nuevos métodos computacionales no solo resultaban interesantes para pensar en un juego de ajedrez automatizado, sino que podían, de manera bastante literal, hundir barcos de guerra.
Turing (una vez más) pensaba en una abstracción: mentes y máquinas, o la idea general de inteligencia. Pero había algo extraño en su visión de lo que aquello implicaba. En los años cuarenta, la inteligencia no era un rasgo que se atribuyera en general a los sistemas formales, como era el caso de la Bombe de Bletchley, una máquina descifradora puramente mecánica. Gödel había demostrado que, por norma, la verdad no podía reducirse a lo formal, en el sentido de que participara en un juego formal con un conjunto de reglas establecidas, pero recuerda que su demostración dejó abierta la cuestión de si una máquina específica podría incorporar la intuición de la que se sirve la mente para tomar decisiones sobre las reglas que se deben seguir, pese a que no pudiera existir ningún sistema supremo capaz de demostrarlo todo (tal y como el propio Gödel había revelado de manera tan definitiva en 1931).
Tras abandonar Bletchley, Turing dedicó cada vez más tiempo a la cuestión de si era posible construir una máquina que fuera lo bastante potente como para usar a la vez la intuición y el ingenio. El enorme número de combinaciones posibles que había que comprobar de cara a descifrar los códigos alemanes resultaba abrumador para la intuición humana. Pero unos sistemas que contaran con los programas adecuados podrían cumplir con esa tarea al simplificar aquellas vastas posibilidades matemáticas. Para Turing, eso sugería que la intuición podía cobrar cuerpo en las máquinas. En otras palabras, el éxito de Bletchley implicaba que quizá se pudiera construir una inteligencia artificial.
No obstante, para que esa línea de pensamiento cobrara sentido, había que decidirse por una idea concreta de «inteligencia». La inteligencia, tal y como la ejercen los seres humanos, debía ser reducible —analizable— según los términos de la capacidad de la máquina. En esencia, la inteligencia debía ser reducible a la forma de la resolución de problemas. Al fin y al cabo, en eso consiste el juego del ajedrez y en eso consiste también descifrar un código.
Y ahí está: la mayor muestra de genio por parte de Turing, y también su mayor error, consistió en pensar que la inteligencia humana se limitaba a resolver problemas. Tanto si había explicitado las ideas sobre máquinas inteligentes de su «Maquinaria computacional e inteligencia» de 1950 durante los años de la guerra como si no, queda claro que la experiencia de Bletchley materializó su visión posterior sobre la IA, y queda claro que la IA, a su vez, siguió de cerca esa misma senda, aunque sin el autoanálisis que hubiera sido necesario.
Pero una mirada más atenta al éxito descodificador de Bletchley revela de manera inmediata una simplificación peligrosa en sus ideas filosóficas acerca del hombre y la máquina. Bletchley fue un sistema inteligente, resultado de la coordinación militar (incluyendo el espionaje y la inteligencia, así como la captura de naves enemigas); de la inteligencia social que se estableció entre los militares y los diversos científicos e ingenieros que había allí, y (como sucede con todo en esta vida) a veces fue también cuestión de pura suerte. Lo cierto es que, en cuanto realidad práctica, la máquina Enigma modificada por los alemanes era impenetrable por medios puramente mecánicos. Los alemanes eran conscientes de ello; se habían basado en argumentos matemáticos sobre las dificultades de la descodificación mecánica. En parte, el éxito de Bletchley se debió, irónicamente, a la tozuda confianza de los comandantes nazis en el carácter inexpugnable de los cifrados de Enigma —de modo que, en momentos cruciales, tras descubrir que ciertos mensajes habían sido descifrados, se negaron a modificar o reforzar las máquinas, echándoles la culpa a operaciones de espionaje encubiertas en vez de aceptar aquella derrota científica—. Pero la niebla de la guerra hace que se mezclen no solo diferentes tecnologías novedosas, sino nuevas formas de inteligencia humana y social. La guerra no es como el ajedrez.
Por ejemplo, al principio de la guerra, las fuerzas polacas recuperaron fragmentos importantes de comunicaciones de Enigma que más tarde revelaron pistas de valor incalculable para la labor de Bletchley. Los polacos habían usado esos fragmentos (junto con otros, procedentes de fuentes rusas) para desarrollar su propia Bombe, aunque más simple, en una fecha tan temprana como 1938. La versión muy mejorada de Turing a principios de 1940 —la Bombe que usaba su «turinguismo»— dependió de aquella primeriza labor polaca, facilitada por los hechos que tenían lugar en el campo de batalla. Turing también vio a su colega Gordon Welchman introducir cambios en su propio diseño, al que le añadió un «tablero diagonal» para simplificar aún más la búsqueda de contradicciones,5 como respuesta a las mejoras que los alemanes habían realizado en Enigma. Ahí había dos mentes humanas sirviéndose de la intuición, trabajando conjuntamente en sociedad.
Hubo otros acontecimientos en el teatro de la guerra que resultaron de importancia capital. El 8 de junio de 1940, un portaaviones británico se hundió delante de la costa noruega. Aquel ataque facilitó la localización de los U-Boote,si bien se cobró un precio elevado con los numerosos marineros que acabaron en el fondo del mar. Pocas semanas antes, a finales de abril de 1940, la patrullera alemana VP2623, un miembro de la flota especialmente devastador, había sido capturada con un tesoro de pruebas de Enigma en su interior. Las piezas que se necesitaban para resolver el puzle de Enigma estaban llegando a manos aliadas y se abrían camino hacia el grupo de Bletchley.
Por sí mismos, aquellos fragmentos resultaban por completo inadecuados para descifrar con rapidez el futuro de las comunicaciones alemanas; para los criptoanalistas de Bletchley no eran más que «conjeturas», según la definición de un biógrafo de Turing. Pero facilitaron un primer paso de radical importancia a la hora de dar con la manera de programar las máquinas Bombe. Turing y sus colegas lo denominaron «la ponderación de las pruebas», tomando prestado un término que acuñó el científico y lógico norteamericano C. S. Peirce (quien ocupará un papel destacado en la segunda parte de este libro).6
Los matemáticos interpretan el peso de la evidencia de maneras diferentes, pero, en el caso del éxito de Bletchley (y para asuntos más amplios relacionados con la IA), equivale a aplicar conjeturas informadas, o intuiciones, para dirigir el ingenio, o las máquinas. Un fragmento de texto descifrado procedente de un submarino capturado puede significar cualquier cosa, tal y como una bola blanca hallada cerca de una bolsa de bolas blancas puede significar cualquier cosa, pero en cada caso podemos realizar suposiciones inteligentes para comprender lo que ha sucedido. Pensamos que resulta muy probable que la bola blanca haya salido de esa bolsa, pese a no haber visto que la sacaran de ella. Se trata de una suposición. No se puede demostrar que ese tipo de suposiciones sean ciertas, pero, cuanto mejor funcione la intuición humana al establecer las condiciones iniciales para trazar los procesos mecánicos, mejores serán las posibilidades de que esos procesos acaben obteniendo los resultados deseados en vez de, pongamos por caso, prolongarse sin rumbo fijo, siguiendo direcciones erróneas o engañosas. El peso de la evidencia —suponer— hizo que las Bombe funcionaran.
Los científicos de Bletchley no se limitaron a proveer a las Bombe de información, dejándolas luego para que realizaran la labor incansable e importante de eliminar millones de códigos o cifrados incorrectos. Desde luego, las Bombe fueron necesarias —eso es lo que Turing entendió con gran claridad, y lo que sin duda inundó su imaginación con la posibilidad de que aquellos «procesos mecánicos» pudieran reproducir o reemplazar a la inteligencia humana—, pero la realidad fue que el grupo de Bletchley se ocupó ante todo de hacer conjeturas. Al reconocer las pistas escondidas en el mosaico de instrucciones incompletas, cifrados y mensajes procedentes del campo de batalla, pasaron a generar hipótesis. En la ciencia, las conjeturas se definen así, como la formación de hipótesis (concepto que también utilizó Charles Sanders Peirce), y tienen una importancia fundamental para el progreso del saber humano. No es de extrañar, pues, que la obra de Bletchley equivaliera a un sistema de conjeturas acertadas. Su condición sine qua non no fue de tipo mecánico, sino que más bien podríamos describirla como una observación inicial inteligente. Las Bombe necesitaban que las apuntaran hacia algo, y que a continuación las impulsaran en ese sentido.
En sintonía con un tema que exploraremos en la segunda parte del libro, Peirce reconoció muy al principio, a finales del siglo XIX, que todas las observaciones que dan cuerpo a las ideas complejas y juicios de la inteligencia comienzan con una suposición, o lo que él llamó una abducción:
Al mirar por la ventana en esta hermosa mañana de primavera veo una azalea en plena floración. ¡No, no! No es eso lo que he visto, aunque sí se trate de la única manera en que puedo describirlo. Es una proposición, una frase, un dato; pero lo que percibo no es una proposición, una frase, un dato, sino apenas una imagen que yo hago inteligible en parte a través de la exposición de un hecho. Esa exposición es abstracta, pero lo que yo veo es concreto. Realizo una abducción cada vez que expreso cualquier cosa que haya visto en una frase. La verdad es que el entramado al completo de nuestro conocimiento es un fieltro opaco de hipótesis puras confirmadas y refinadas a través de la inducción. No se puede obtener el menor avance en el campo del conocimiento sin realizar una abducción a cada nuevo paso, o de otro modo nos quedaríamos mirando las cosas con expresión vacía.7
Turing y sus colegas de Bletchley comenzaron a ganar una guerra que había orbitado de los mandamases a los servicios de inteligencia gracias al uso, en efecto, de abducciones inteligentes en cada nuevo paso del camino. Hasta cierto punto, es evidente que Turing era consciente de ello (recordemos el debate sobre la intuición en la tesis que dedicó en 1938 a los números ordinales), pero no parece haber tenido un efecto apreciable en sus ideas posteriores sobre la naturaleza de la inteligencia y la posibilidad de crear máquinas inteligentes. Por brillante que se mostrara, formuló una simplificación de la inteligencia real. Se liberó del concepto que tanto le había subyugado con anterioridad: el de la intuición. El de las conjeturas.
La inteligencia social también quedó visiblemente fuera de la forma en que Turing resolvió el acertijo sobre la inteligencia. Esto es de la mayor importancia de cara a comprender el desarrollo futuro de la IA. Por ejemplo, a Turing le desagradaba considerar que el pensamiento o la inteligencia pudieran ser circunstancias sociales o situacionales.8 Sin embargo, el éxito de Bletchley formó parte, en realidad, de un vasto sistema que se extendió mucho más allá de las cuatro paredes del lugar. Se había puesto en marcha un esfuerzo inmenso, que no tardaría en atraer a Estados Unidos y la labor de científicos como Shannon, en Bell Labs, así como de los que trabajaron en el célebre Instituto de Estudios Avanzados de Princeton —donde tenían puestos Einstein, Gödel y John von Neumann—. El sistema expandido de máquinas humanas resulta en realidad mucho más realista como modelo de la manera en que se solucionan los problemas del mundo real —entre ellos, el de una guerra mundial debe contarse sin duda como uno de los más complejos e importantes.
La falta de oído musical de la IA para la inteligencia social o situacional ya se había comentado antes, y en tiempos más recientes lo ha hecho el científico especializado en aprendizaje automático François Chollet, quien lo resume bien en su crítica a la visión que tenía Turing sobre la inteligencia (y, de manera más amplia, a la del campo de la IA). Primero, la inteligencia es situacional, no existe nada parecido a una inteligencia general. Tu cerebro es una pieza dentro de un sistema más amplio que incluye tu cuerpo, tu entorno, a otros seres humanos y la cultura en su conjunto. Segundo, la inteligencia es contextual: lejos de existir en el vacío, cualquier inteligencia individual siempre se hallará definida a la vez que limitada por su entorno. (Y, en estos momentos, es el entorno, y no el cerebro, el que actúa como cuello de botella para la inteligencia.) Tercero, la inteligencia humana se encuentra en gran medida externalizada, contenida no en tu cerebro sino en tu civilización. Pensemos en los individuos como si fueran herramientas cuyos cerebros son módulos de un sistema cognitivo mucho más amplio que ellos mismos, un sistema que lleva mucho tiempo evolucionando.9
Según lo expresa Turing, la intuición se puede programar en una máquina, pero Chollet y críticos similares aseguran que esta no podrá alcanzar el nivel de la inteligencia humana. De hecho, la idea de programar la intuición ignora un aspecto fundamental de nuestros propios cerebros. Los seres humanos disponemos de inteligencia social. Disponemos de inteligencia emocional. Usamos nuestras mentes para algo más que para resolver problemas y acertijos, por complejos que sean (o, más bien, sobre todo cuando esos problemas son complejos).
La evidencia sugiere que Turing rechazó con firmeza esa visión de las personas, y en su lugar llegó a creer que la totalidad del pensamiento humano se podía entender, en efecto, desde el «desciframiento» de unos «códigos» —o resolución de acertijos— y la práctica de juegos como el ajedrez. Lo importante es que, en algún momento de los años cuarenta, después de trabajar en Bletchley y sin duda durante la época en la que escribió el artículo aparecido en 1950 donde prefiguraba la IA, el pensamiento de Turing se decantó por una visión simplificada de la inteligencia. Fue un error atroz, que además se ha ido transmitiendo de generación en generación de científicos de IA hasta llegar al día de hoy.
Esa visión de la inteligencia como algo que resuelve problemas ayuda a explicar la producción de aplicaciones invariablemente débiles a lo largo de la historia de la IA. Los juegos, por ejemplo, han sido una fuente constante de inspiración para el desarrollo de técnicas avanzadas de IA, pero estos no dejan de ser versiones simplificadas de la vida que recompensan visiones también simplificadas de la inteligencia. Un programa de ajedrez puede desempeñarse bien en ese juego, pero se le dará bastante mal conducir un coche. El sistema Watson de IBM juega al Jeopardy!, pero no al ajedrez ni al go, y se requiere un esfuerzo inmenso de programación o de «conversión» para que la plataforma Watson realice otras funciones de extracción de datos y procesamiento del lenguaje natural, como con sus recientes (y en gran medida fallidas) incursiones en el terreno de la salud.
Por consiguiente, tratar la inteligencia como algo que resuelve problemas conduce a que las aplicaciones de la IA sean débiles. Sin duda, Turing fue consciente de ello, y en su artículo de 1950 especuló con la posibilidad de que se pudiera hacer que las máquinas aprendieran y así superar las limitaciones que surgen como consecuencia natural del diseño de unos sistemas informáticos que solo sirven para solucionar problemas. Si las máquinas aprendieran a volverse genéricas, seríamos testigos de una transición fluida entre las aplicaciones específicas y unos seres dotados de pensamiento general. Llegaríamos a la IA.
No obstante, el conocimiento que tenemos hoy choca con violencia contra el enfoque de aprendizaje sugerido de manera temprana por Turing. Para alcanzar sus objetivos, los que en la actualidad denominamos «sistemas de aprendizaje automático» deben aprender algo específico. Los investigadores hablan de darle a la máquina un «sesgo» (sin las connotaciones negativas que le otorgamos en nuestra sociedad; no se pretende decir que la máquina sea cabezota o que cueste discutir con ella, ni que tenga motivaciones secretas, según el sentido habitual de la palabra). En el aprendizaje automático, el sesgo significa que el sistema está diseñado y puesto a punto para aprender algo. Pero, por supuesto, ese es precisamente el problema de producir aplicaciones débiles que resuelvan problemas. (Y es el motivo, por ejemplo, por el que los sistemas de aprendizaje profundo que usa Facebook para reconocer rostros humanos no han aprendido también a hacerte la declaración de la renta.)
Peor incluso, los investigadores se han dado cuenta de que darle a un sistema de aprendizaje automático un sesgo a la hora de aprender una tarea o aplicación concreta lleva a que tenga un rendimiento peor en otras tareas. Hay una correlación inversa entre el éxito de la máquina al aprender algo y que consiga aprender otra cosa. Incluso tareas en apariencia similares presentan esa relación inversa en su desempeño. Un sistema informático que aprenda a jugar al go a nivel de campeonato no aprenderá además a jugar al ajedrez a ese mismo nivel. El sistema del go ha sido diseñado de manera específica, con un sesgo particular hacia el aprendizaje de las reglas del go. Su curva de aprendizaje, tal y como la llaman, sigue, por tanto, el tanteo conocido de ese juego en particular y, en relación con cualquier otro juego, pongamos el Jeopardy! o el ajedrez, se vuelve inútil —de hecho, no existe.
El sesgo en el aprendizaje automático se ha entendido por lo general como una fuente de errores de aprendizaje, un problema técnico. (También, al ajustarse al uso común del lenguaje, ha adoptado acepciones secundarias que ofrecen resultados involuntarios pero inaceptables por, pongamos, su carga racial o de género.) El sesgo en el aprendizaje automático puede introducir errores solo porque el sistema no «busca» ciertas soluciones en primer lugar. Pero, de hecho, el sesgo es necesario para el aprendizaje automático: forma parte de él.
Un célebre teorema conocido como «no free lunch» demuestra con exactitud lo que observamos de manera anecdótica al diseñar y construir un sistema de aprendizaje. El teorema sostiene que, al aplicarse sobre un problema arbitrario, cualquier sistema de aprendizaje libre de sesgo no obtendrá resultados mejores que los que proporciona el azar. Es una manera elegante de decir que los diseñadores de sistemas deben conferir a estos un sesgo de manera deliberada, para que aprendan su propósito. Tal y como señala el teorema, un sistema en verdad libre de sesgo no sirve para nada. Hay técnicas complicadas, como la del «preentrenamiento» con datos, que se sirven de métodos no supervisados que exponen los rasgos de los datos que hay que aprender. Todo ello forma parte integral de un aprendizaje automático exitoso. Lo que queda fuera del debate, no obstante, es que ajustar un sistema para que aprenda su propósito inculcándole el sesgo deseado implica que se vuelva restrictivo, en el sentido de que ya no podrá generalizarse a otros dominios. En parte, construir e implementar con éxito un sistema de aprendizaje automático lleva a que este no se encuentre libre de sesgo y no sea general, sino que se centre en un problema de aprendizaje particular. Visto así, la restricción se encuentra integrada hasta cierto punto en esos enfoques. El éxito y la restricción son las dos caras de una misma moneda.
Por sí solo, ese hecho ya arroja serias dudas sobre cualquier expectativa de progresión fluida entre la IA actual y la IA de nivel humano el día de mañana. La gente que asume que la ampliación de los métodos modernos de aprendizaje automático, como el aprendizaje profundo, podrán formarse desde cero o aprender a ser tan inteligentes como los seres humanos, no comprende las limitaciones fundamentales ya conocidas. Admitir la necesidad de suministrar un sesgo a los sistemas de aprendizaje es equivalente a la observación por parte de Turing de que la mente humana debe suministrar percepciones matemáticas externas a los métodos formales, ya que el sesgo del aprendizaje automático está determinado, antes del aprendizaje, por sus diseñadores humanos.10
Para resumir la cuestión, la visión de la inteligencia como algo que resuelve problemas genera de manera necesaria aplicaciones débiles y, por tanto, resulta inadecuada para los objetivos más amplios de la IA. Heredamos esa visión de la inteligencia de Alan Turing. (¿A cuento de qué, por ejemplo, usamos el término «inteligencia artificial» en vez de, quizá, el de «simulación de tareas humanas»?)11 La genialidad de Turing consistió en deshacerse de los obstáculos y objeciones teóricas en el trayecto hacia la posibilidad de diseñar una máquina autónoma, pero con ello limitó el alcance y la definición de la inteligencia misma. No es de extrañar, pues, que la IA comenzara produciendo aplicaciones débiles de resolución de problemas y que haya seguido haciéndolo hasta el día de hoy.
