Ética de la inteligencia artificial - Luciano Floridi - E-Book

Ética de la inteligencia artificial E-Book

Luciano Floridi

0,0

Beschreibung

El objetivo de este libro es contribuir al desarrollo de una filosofía de nuestro tiempo para nuestro tiempo. La revolución digital acaba de empezar y tiene una magnitud que aún es difícil de dimensionar. Nos encontramos frente a un fenómeno novedoso, veloz, multifacético, que sin duda está escribiendo un nuevo capítulo en la historia de la humanidad. La vida, tal y como la conocemos hoy, se ha vuelto impensable sin la presencia de servicios, productos y prácticas digitales; y la inteligencia artificial acapara ahora todas las miradas, desde que ha dado el salto de los laboratorios a una infinidad de aplicaciones cotidianas. Por su evolución acelerada, los intereses que pone en juego y sus consecuencias todavía impredecibles, la inteligencia artificial puede emplearse tanto de forma ética como no ética. De allí que Luciano Floridi, uno de los mayores expertos en filosofía de la información, afirme que tenemos no solo la oportunidad, sino la obligación de darle a esta nueva herramienta una forma positiva que beneficie a la humanidad y a nuestro planeta. Con este libro, el autor pretende contribuir al desarrollo de una filosofía de nuestro tiempo para nuestro tiempo. Porque no debemos caminar dormidos hacia la creación de un mundo cada vez más digital. El insomnio de la razón puede generar errores monstruosos, a veces irreversibles.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 620

Veröffentlichungsjahr: 2024

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Luciano Floridi

Ética de lainteligencia artificial

Principios, retos y oportunidades

Traducción deJavier Anta

Herder

Título original: The Ethics of Artificial Intelligence

Traducción: Javier Anta

Diseño de la cubierta: Herder

Edición digital: José Toribio Barba

© 2023, Luciano Floridi

© 2024, Herder Editorial, S.L., Barcelona

ISBN EPUB: 978-84-254-5066-2

1.ª edición digital, 2024

Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra solo puede ser realizada con la autorización de sus titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro de Derechos Reprográficos) si necesita reproducir algún fragmento de esta obra (www.conlicencia.com)

Herder

www.herdereditorial.com

Índice

PREFACIO

AGRADECIMIENTOS

MATERIALES AUXILIARES

Lista de imágenes

Lista de tablas

Lista de los acrónimos y las abreviaciones más frecuentes

PRIMERA PARTE · ENTENDIENDO LA IA

1. PASADO: EL SURGIMIENTO DE LA IA

Resumen

1. Introducción: revolución digital e IA

2. El poder de corte de lo digital: cortar y pegar la modernidad

3. Nuevas formas de agencia

4. IA: Un área de investigación en búsqueda de definición

5. Conclusiones: ética, gobierno y diseño

2. PRESENTE: LA IA COMO UNA NUEVA FORMA DE AGENCIA, NO INTELIGENCIA

Resumen

1. Introducción: ¿qué es la ia? «la reconocería si la viese»

2. La IA como contrafáctico

3. Las dos almas de la IA: la ingenieril y la cognitiva

4. IA: historia de un divorcio en la infoesfera

5. El uso humano de humanos e interfaces

6. Conclusión: ¿quién se adapta a quién?

3. FUTURO: EL DESARROLLO PREVISIBLE DE LA IA

Resumen

1. Introducción: buscando en las semillas del tiempo

2. Datos históricos, híbridos y sintéticos

3. Reglas restrictivas y reglas constitutivas

4. Problemas difíciles, problemas complejos y la necesidad de envoltura

5. Modelos generativos

6. Un futuro de diseño

7. Conclusión: las estaciones de la IA

SEGUNDA PARTE · EVALUANDO LA AI

4. UN MARCO UNIFICADO DE PRINCIPIOS ÉTICOS PARA LA IA

Resumen

1. Introducción: ¿demasiados principios?

2. Un marco unificado de cinco principios para una IA ética

3. Beneficencia: promover el bienestar, preservar la dignidad y mantener el planeta

4. No maleficencia: privacidad, seguridad y «precaución con las capacidades»

5. Autonomía: el poder de «decidir decidir»

6. Justicia: promover la prosperidad, preservar la solidaridad, evitar la injusticia

7. Explicabilidad: permitir los otros principios mediante inteligibilidad y responsabilidad

8. Una visión sinóptica

9. La ética de la IA: ¿de dónde y para quién?

10. Conclusión: de los principios a las prácticas

5. DE LOS PRINCIPIOS A LAS PRÁCTICAS: LOS RIESGOS DE SER NO ÉTICO

Resumen

1. Introducción: traducciones arriesgadas

2. La compra de éticas

3. El blanqueamiento de la ética

4. Los grupos de presión ética

5. El vertimiento ético

6. La evasión de la ética

7. Conclusión: la importancia de conocer mejor

6. LA ÉTICA SUAVE Y LA GOBERNANZA DE LA IA

Resumen

1. Introducción: de la innovación digital a la gobernanza de lo digital

2. Ética, regulación y gobernanza

3. Cumplimiento: necesario pero insuficiente

4. Ética dura y blanda

5. La ética blanda como marco ético

6. Análisis del impacto ético

7. Preferibilidad digital y cascada normativa

8. La doble ventaja de la ética digital

9. Conclusión: la ética como estrategia

7. CARTOGRAFIANDO LA ÉTICA DE LOS ALGORITMOS

Resumen

1. Introducción: una definición práctica de algoritmo

2. Mapa de la ética de los algoritmos

3. Evidencia no concluyente que conduce a acciones injustificadas

4. La evidencia inescrutable conduce a la opacidad

5. Evidencia equivocada que conduce a un sesgo no deseado

6. Resultados injustos que conducen a la discriminación

7. Efectos transformadores que conducen a desafíos para la autonomía y la privacidad informativa

8. La trazabilidad conduce a la responsabilidad moral

9. Conclusión: el uso bueno y malvado de los algoritmos

8. MALAS PRÁCTICAS: EL MAL USO DE LA IA PARA EL MAL SOCIAL

Resumen

1. Introducción: el uso delictivo de la IA

2. Preocupaciones

3. Amenazas

4. Posibles soluciones

5. Evolución futura

6. Conclusión: de los usos perversos de la IA a la IA socialmente buena

9. BUENAS PRÁCTICAS: EL USO ADECUADO DE LA IA PARA EL BIEN COMÚN

Resumen

1. Introducción: la idea de la IA para el bien social

2. Definición de la iniciativa IA-BS

3. Siete factores esenciales para el éxito de IA-BS

4. Conclusión: equilibrando factores para una IA-BS

10. CÓMO CONSEGUIR UNA BUENA SOCIEDAD DE LA IA: ALGUNAS RECOMENDACIONES

Resumen

1. Introducción: cuatro formas de conseguir una buena sociedad de la IA

2. Quiénes podemos llegar a ser: permitir la autorrealización humana sin devaluar las capacidades humanas

3. Lo que podemos hacer: potenciar la agencia humana sin eliminar la responsabilidad humana

4. Lo que podemos conseguir: aumentar las capacidades de la sociedad sin reducir el control humano

5. Cómo podemos interactuar: cultivar la cohesión social sin erosionar la autodeterminación humana

6. Veinte recomendaciones para una buena sociedad de la IA

6. Conclusión: necesidad de políticas concretas y constructivas

11. LA APUESTA: EL IMPACTO DE LA IA EN EL CAMBIO CLIMÁTICO

Resumen

1. Introducción: el poder de doble filo de la IA

2. La IA y las «transiciones gemelas» de la UE

3. IA y cambio climático: retos éticos

4. IA y cambio climático: huella de carbono digital

5. Trece recomendaciones a favor de la IA contra el cambio climático

6. Conclusión: una sociedad más sostenible y una biosfera más sana

12. LA IA Y LOS OBJETIVOS DE DESARROLLO SOSTENIBLE DE LA ONU

Resumen

1. Introducción: IA-BS y los ODS de la ONU

2. Evaluar la evidencia de la IAxODS

3. La IA para impulsar la «acción climática»

6. Conclusión: una agenda de investigación para IAXODS

13. CONCLUSIÓN: EL VERDE Y EL AZUL

Resumen

1. Introducción: del divorcio entre agencia e inteligencia al matrimonio entre el verde y el azul

2. El papel de la filosofía como diseño conceptual

3. Volver a «las semillas del tiempo»

4. Se necesitan trabajadores del «sector cuaternario»

5. Conclusión: la humanidad como un hermoso fallo

BIBLIOGRAFÍA

Información adicional

A Jeanne Migliar, más tarde Fiorella Floridi (1937-2022)quien me amó y me enseñó el valor del adagio: «Donde una puerta se cierra, otra se abre […] y sino me las ingenio para entrar en ella, será culpa mía».Miguel de Cervantes, Don Quijote, XXI

Hizo veinte trípodes que debían estar junto al muro de su casa, y puso ruedas de oro debajo de todos ellos, para que pudieran ir por sí mismos a las asambleas de los dioses, y volver de nuevo, maravillas en verdad para ver.HOMERO, Ilíada, libro 18

Prefacio

La educación, los negocios y la industria, los viajes y la logística, la banca, el pequeño comercio y las compras, el ocio, el bienestar y la sanidad, la política y las relaciones sociales —en resumen, la vida tal y como la conocemos hoy en día— se han vuelto impensables sin la presencia de servicios, productos y prácticas digitales. Quien no se sienta perplejo ante esta revolución digital no ha entendido su magnitud. Estamos hablando de un nuevo capítulo de la historia de la humanidad. Por supuesto, muchos otros capítulos han llegado antes. Todos ellos fueron igualmente significativos. La humanidad antes y después de la rueda, la industria del hierro, el alfabeto, la imprenta, el motor, la electricidad, el automóvil, la televisión y el teléfono. Cada transformación ha sido única. Algunas cambiaron irreversiblemente la comprensión de nosotros mismos, nuestra realidad y nuestra experiencia de ella, con implicaciones complejas y a largo plazo. Por ejemplo, seguimos encontrando nuevas formas de explotar la rueda (pensemos en la rueda de clic del iPod). Del mismo modo, lo que la humanidad logrará gracias a las tecnologías digitales es inimaginable. Como subrayo en el capítulo 1, nadie en 1964 podría haber adivinado cómo sería el mundo solo cincuenta años después. Los futurólogos son los nuevos astrólogos; no debemos fiarnos de ellos. Pero también es cierto que la revolución digital solo ocurrirá una vez, y está ocurriendo ahora. Esta página de la historia se ha pasado y ha comenzado un nuevo capítulo. Las generaciones futuras nunca sabrán cómo era la realidad cuando esta era exclusivamente analógica, offline, predigital. Somos la última generación que la ha vivido.

El precio de un lugar tan especial en la historia es una incertidumbre desbordante. Las transformaciones provocadas por las tecnologías digitales son alucinantes. Es normal que generen una cierta confusión y aprensión, solo hay que echar un vistazo a los titulares de los periódicos. Sin embargo, nuestro lugar especial en esta línea divisoria histórica, entre una realidad totalmente analógica y otra cada vez más digital, también ofrece oportunidades extraordinarias. Precisamente porque la revolución digital acaba de empezar, tenemos la oportunidad de darle una forma positiva que beneficie tanto a la humanidad como a nuestro planeta. Como dijo Winston Churchill: «Nosotros damos forma a nuestros edificios; después, ellos nos dan forma a nosotros». Estamos en la fase inicial de la construcción de nuestras realidades digitales. Podemos moldearlas antes de que empiecen a afectarnos e influir en nosotros y en las generaciones futuras de forma equivocada. No se trata de ser pesimista u optimista. Discutir si el vaso está medio vacío o medio lleno no tiene sentido. La cuestión interesante es cómo llenarlo. Esto significa comprometerse constructivamente con el análisis ético de los problemas y el diseño de las soluciones adecuadas.

Para identificar el mejor camino a seguir para el desarrollo de nuestras tecnologías digitales, el primer paso esencial es una mayor y mejor comprensión. No debemos caminar dormidos hacia la creación de un mundo cada vez más digital. El insomnio de la razón es vital porque su sueño genera errores monstruosos, a veces irreversibles. Comprender las transformaciones que se están produciendo ante nuestros ojos es esencial si queremos dirigir la revolución digital en una dirección que sea socialmente preferible (equitativa) y medioambientalmente sostenible. Esto solo puede hacerse mediante un esfuerzo colaborativo (Floridi, en prensa). Así pues, en este libro ofrezco mi contribución compartiendo algunas ideas sobre un tipo de tecnología digital, la inteligencia artificial (IA) y la cuestión específica de su ética.

El libro forma parte de un proyecto de investigación más amplio sobre las transformaciones de la agencia (la capacidad de interactuar con el mundo y aprender de él para alcanzar un objetivo) que devinieron con la revolución digital. Al principio pensé que podría trabajar tanto sobre la IA —entendida como agencia artificial, el tema de este libro— y la agencia política —entendida como agencia colectiva apoyada e influida por las interacciones digitales—. Cuando me invitaron a dar las Ryle Lectures en 2018, intenté hacer exactamente esto. Presenté ambos temas como dos aspectos de una misma transformación más fundamental. Los organizadores y los asistentes me dijeron, quizá amablemente, que no fue un fracaso. Pero, personalmente, no me pareció un gran éxito. Y no porque la ética de la inteligencia artificial y la política de la información desde un único punto de vista agencial no funcionase, sino porque funciona bien únicamente si estamos dispuestos a saltarnos los detalles, priorizando la amplitud de miras sobre la profundidad. Esto puede estar bien en una serie de conferencias, pero abarcar ambas temáticas en una sola monografía de investigación habría dado lugar a una obra de menor atractivo que este libro. Así que, siguiendo el perspicaz consejo de Peter Momtchiloff de Oxford University Press, decidí dividir el proyecto en dos: este libro sobre la ética de la IA y un segundo libro sobre la política de la información. Este es el lugar adecuado para que el lector sepa dónde localizar ambos libros dentro del proyecto más amplio.

Este libro es la primera parte del cuarto volumen de una tetralogía que incluye The Philosophy of Information (Floridi, 2011), The Ethics of Information (Floridi, 2013) y The Logic of Information (Floridi, 2019d). Comencé etiquetando la tetralogía Principia Philosophiae Informationis no como una muestra de arrogancia sin límites (aunque bien podría serlo), sino como un juego de palabras interno entre algunos colegas. En una especie de competición de remo, bromeé diciendo que ya era hora de que Oxford alcanzara a Cambridge con un marcador de 3 a 0 en el número de «principias» en su haber. No fue un juego de palabras que muchos encontraran divertido o incluso inteligible.

Dentro del proyecto Principia, este libro ocupa un lugar intermedio entre el primer y el segundo volumen (no muy diferente del volumen tres), porque la epistemología, la ontología, la lógica y la ética contribuyen al desarrollo de las tesis que presentaré en los capítulos siguientes. Pero, como el lector podría esperar, todos los volúmenes están escritos de forma independiente, por lo que este libro puede leerse sin necesidad de conocer nada más de lo que yo haya publicado. Aun así, los volúmenes son complementarios. Las ideas esenciales del primer volumen son relativamente sencillas: la información semántica son datos bien formados, significativos y veraces; el conocimiento es la información semántica relevante adecuadamente justificada; los seres humanos son los únicos organismos informacionales conocidos conscientes y capaces de procesar significado que pueden diseñar y comprender artefactos semánticos; desarrollando así un conocimiento creciente de la realidad y de sí mismos, almacenado como capital semántico; y la realidad se comprende mejor como la totalidad de la información (nótese aquí la ausencia crucial de «semántica»).

Con este telón de fondo, el segundo volumen investiga las bases de la ética de organismos informacionales (los inforgs) como nosotros, que prosperan en entornos informacionales (la infoesfera)1 y son responsables de su construcción y bienestar. En resumen, el volumen dos trata sobre la ética de los inforgs en la infoesfera, que experimentan cada vez más la vida como onlife (Floridi, 2014b) —es decir, tanto online como offline, tanto analógica como digital—. En un movimiento kantiano clásico, nos desplazamos desde la filosofía teórica a la filosofía práctica (en el sentido de praktischen, no en el sentido de útil o aplicada). El tercer volumen se centra en la lógica conceptual de la información semántica como modelo. Este tema está relacionado con el análisis epistemológico de The Philosophy of Information. En la medida en que el volumen se centra en la lógica conceptual de la información semántica como modelo, ofrece un puente hacia el análisis normativo que se ofrece en The Ethics of Information.

El tercer volumen trata, entre otras cosas, de los deberes, derechos y responsabilidades asociados a las prácticas poiéticas que caracterizan nuestra existencia —desde dar sentido al mundo hasta cambiarlo de acuerdo con lo que consideramos moralmente bueno y normativamente correcto—. A modo de bisagra entre los dos libros anteriores, el tercer volumen cimenta las bases para el cuarto volumen, The Politics of Information, del cual este libro es la primera parte. Aquí, el construccionismo epistemológico, normativo y conceptual desarrollado en los volúmenes anteriores apoya el estudio de las oportunidades de diseño de las que disponemos. Se trata de oportunidades para comprender y dar forma a lo que yo llamo «el proyecto humano» en nuestras sociedades de la información, mediante el diseño adecuado de nuevas formas de agencia artificial y política. La tesis clave de este libro es que la IA es posible gracias a la disociación de la agencia y la inteligencia, de ahí que la IA se entienda mejor como una nueva forma de agencia, pero no de inteligencia; así, la IA constituye una revolución asombrosa, pero en un sentido pragmático y no cognitivo, y que tanto los retos como las oportunidades concretas y apremiantes en relación con la IA surgen del cisma entre agencia e inteligencia, el cual seguirá ampliándose a medida que la IA tenga más éxito.

En conjunto, los cuatro volúmenes pueden entenderse como un intento de invertir lo que creo que son varias concepciones erróneas. Las concepciones erróneas se explican fácilmente mediante el modelo clásico de comunicación de Shannon, compuesto por emisor, mensaje, receptor y canal (Shannon y Weaver, 1975, 1998). La epistemología se centra demasiado en el receptor/consumidor pasivo del conocimiento, cuando debería centrarse en el emisor/productor activo. Debería pasar de la mímesis a la poiesis. Porque conocer es diseñar. La ética se centra demasiado en el emisor/agente, cuando debería ocuparse del receptor/paciente y, sobre todo, de la relación entre emisor y receptor. Porque el cuidado, el respeto y la tolerancia son las claves del bien. La metafísica se centra demasiado en los relata o entidades que participan de una relación, como el emisor/productor/agente/receptor/consumidor/paciente, cuando debería preocuparse por el mensaje/relaciones. Esto se debe a que las estructuras dinámicas constituyen lo estructurado. La lógica se centra demasiado en los canales de comunicación como soporte, justificación o fundamento de nuestras conclusiones, cuando también debería preocuparse por los canales que nos permiten extraer (y transferir) fiablemente información desde diversas fuentes. Esto se debe a que la lógica del diseño de la información es una lógica de relaciones y colecciones de relaciones, más que una lógica de cosas como portadoras de predicados. La IA, o al menos su filosofía, se centra demasiado en la reconstrucción de algún tipo de inteligencia de tipo biológico, cuando debería ocuparse de la configuración de artefactos que puedan funcionar con éxito sin necesidad de inteligencia. Esto se debe a que la IA no es un matrimonio, sino un divorcio entre la capacidad de resolver un problema o llevar a cabo una tarea con éxito para alcanzar un objetivo y la necesidad de ser inteligente al llevarla a cabo. Que mi teléfono juegue al ajedrez mejor que nadie que yo conozca ilustra con suficiente claridad que la IA es la continuación del comportamiento inteligente por otros medios. Por último, la política (el tema de la segunda parte del cuarto volumen) no consiste en gestionar nuestra res publica, sino en cuidar las relaciones que nos hacen sociales: nuestra ratio publica. Me sorprendería que uno solo de estos giros radicales de nuestros paradigmas filosóficos tuviese éxito.

Permítanme ahora hacer un breve repaso del contenido de este libro. La tarea de este volumen sigue siendo contribuir, como en los anteriores, al desarrollo de una filosofía de nuestro tiempo para nuestro tiempo, como he escrito más de una vez. Como en los volúmenes anteriores, se pretende hacer de forma sistemática (se persigue la arquitectura conceptual como un rasgo valioso del pensamiento filosófico), más que exhaustivamente, persiguiendo dos objetivos.

El primer objetivo es metateórico y se cumple en la primera parte del volumen, que comprende los tres primeros capítulos. En ellos ofrezco una interpretación del pasado (capítulo 1), el presente (capítulo 2) y el futuro de la IA (capítulo 3). La primera parte no es una introducción a la IA en un sentido técnico, ni una especie de IA para principiantes. Ya hay muchos libros sobre este tema, entre los que recomendaría el clásico de Russell y Norvig (2018) a cualquiera que esté interesado. Se trata, en cambio, de una interpretación filosófica de la IA como tecnología. Como ya he mencionado, la tesis central que allí se desarrolla es que la IA es un divorcio sin precedentes entre agencia e inteligencia. Sobre esta base, la segunda parte del volumen no persigue una investigación metateórica, sino teórica, de las consecuencias del divorcio mencionado anteriormente. Este es el segundo objetivo. El lector no debería esperar que los principales problemas éticos que afectan a la IA se tratasen como si este fuera un libro de texto. Muchos libros ya tocan todos los temas relevantes sistemáticamente, entre los que recomendaría: Dignum (2019), Coeckelbergh (2020), Moroney (2020), Bartneck et al. (2021), Vieweg (2021), Ammanath (2022), Blackman (2022); y los siguientes manuales: Dubber, Pasquale y Das (2020), DiMatteo, Poncibò y Cannarsa (2022), Voeneky et al. (2022). En cambio, la segunda parte desarrolla la idea de que la IA es una nueva forma de agencia que puede aprovecharse ética y antiéticamente. Más concretamente, en el capítulo 4, ofrezco una perspectiva unificada de los muchos principios que ya se han propuesto para encuadrar la ética de la IA. Esto nos llevará en el capítulo 5 a analizar los riesgos potenciales que pueden socavar la aplicación de estos principios, así como a un análisis de la relación entre los principios éticos y las normas jurídicas, además de la definición de la ética blanda [soft ethics] como una ética post-cumplimiento en el capítulo 6. Después de estos tres capítulos, analizo los retos éticos que plantea el desarrollo y el uso de la IA (capítulo 7), los usos perversos de la IA (capítulo 8) y las buenas prácticas a la hora de aplicación de la IA (capítulo 9). El último grupo de capítulos está dedicado al diseño, desarrollo y despliegue de la IA para el Bien Social o IA-BS. En el capítulo 10 se analizan la naturaleza y las características de IA-BS. En el capítulo 11, reconstruyo las repercusiones positivas y negativas de la IA en el medio ambiente y cómo puede ser una fuerza positiva en la lucha contra el cambio climático —pero no sin riesgos y costes, que pueden y deben evitarse o minimizarse—. En el capítulo 12 amplío el análisis presentado en los capítulos 9 y 10 para debatir la posibilidad de utilizar la IA en apoyo de los diecisiete Objetivos de Desarrollo Sostenible (ODS) [Sustainable Development Goals] de las Naciones Unidas (Cowls, Png y Au). Allí presento la Iniciativa de Oxford sobre IAxODS, un proyecto que dirigí y finalizó en 2022. En el capítulo 13, concluyo abogando por un nuevo matrimonio entre el Verde de todos nuestros hábitats y el Azul de todas nuestras tecnologías digitales. Este matrimonio puede apoyar y desarrollar una sociedad mejor y una biosfera más saludable. El libro termina con algunas referencias a conceptos que ocuparán un lugar central en el próximo libro, The Politics of Information, dedicado (como ya se ha dicho) al impacto de las tecnologías digitales en la agencia sociopolítica. Todos los capítulos están estrictamente relacionados. Así pues, he añadido referencias internas siempre que pueden ser útiles. Como ha señalado un revisor anónimo, los capítulos podrían leerse en un orden ligeramente diferente. Estoy de acuerdo.

Al igual que los volúmenes anteriores, este también es un libro alemán en cuanto a sus raíces filosóficas. Está escrito desde una perspectiva que busca trascender el cisma analítico/continental, división que, en mi opinión, está desapareciendo. El lector perspicaz situará fácilmente esta obra dentro de la tradición que vincula el pragmatismo (especialmente Charles Sanders Peirce) con la filosofía de la tecnología (especialmente Herbert Simon).2 A diferencia del primer volumen, e incluso más que los volúmenes dos y tres, este cuarto volumen es menos neokantiano de lo que esperaba. Y al contrario que los volúmenes dos y tres, también es menos platónico y cartesiano. En resumen, escribirlo me ha hecho tomar conciencia de que estoy escapando del área de influencia de mis tres héroes filosóficos. Esto no estaba previsto, pero es lo que sucede cuando uno sigue su propio razonamiento a dondequiera que le lleve. Amici Plato, Cartesius et Kant, sed magis amica veritas. En The Ethics of Information escribí que «algunos libros escriben a sus autores». Ahora tengo la impresión de que únicamente los libros malos están totalmente controlados por sus autores; siendo estos algo así como los superventas de aeropuertos.

Con respecto a los volúmenes anteriores, la principal diferencia es que ahora estoy cada vez más convencido de que lo mejor de la filosofía es el diseño conceptual. El diseño conceptual nos permite al mismo tiempo desplegar proyectos (comprender el mundo para mejorarlo) y semantizar (dar sentido y significado al Ser, cuidando y enriqueciendo el capital semántico de la humanidad). Todo empezó al darme cuenta de lo obvio, gracias al famosísimo filósofo de Oxford. El verdadero legado de Locke es su pensamiento político, no su epistemología. Quizá Kant no pretendía engañarnos haciéndonos creer que epistemología y ontología son las dos reinas del reino filosófico, pero esa es la forma en que fui educado para pensar sobre la filosofía moderna. Y tal vez ni Wittgenstein ni Heidegger pensaron que la lógica, el lenguaje y sus filosofías debían reemplazar a las dos reinas como sus únicas herederas legítimas, pero esa es también la forma en que me educaron para pensar en la filosofía contemporánea. En cualquier caso, actualmente ya no sitúo ninguna de estas disciplinas en el centro de la empresa filosófica. En su lugar, hoy miro hacia la ética, la filosofía política y la filosofía del derecho. La búsqueda, la comprensión, la configuración, la aplicación y la negociación de lo moralmente bueno y correcto constituyen el núcleo de la reflexión filosófica. Todo lo demás forma parte del camino necesario para llegar a ese lugar, pero no debe confundirse con el lugar en sí. El fundacionalismo filosófico (qué fundamenta qué) es crucial, pero solo con vistas a la escatología[eschatology] filosófica (qué motiva qué). Toda buena filosofía es escatológica.

En cuanto al estilo y la estructura de este libro, repetiré aquí lo que escribí en el prefacio de todos los volúmenes anteriores. Soy plenamente consciente de que no se trata de un libro de lectura fácil, por decirlo suavemente, a pesar de mis intentos de hacerlo lo más interesante y fácil de leer posible. Sigo convencido de que la investigación esotérica (en el sentido técnico) en filosofía es el único modo de desarrollar nuevas ideas. Pero la filosofía exotérica tiene su lugar crucial. Es como la punta más accesible y relevante de la parte más oscura, pero necesaria, del iceberg que hay bajo la superficie de la vida cotidiana. El lector interesado en una lectura mucho más ligera que esta puede consultar The Fourth Revolución: How the Infosphere is Reshaping Human Reality (Floridi, 2014a) o quizás el aún más fácil Information, A Very Short Introduction (Floridi, 2010b).

Como he escrito antes, por desgracia, este libro también requiere no solo un poco de paciencia y un poco de tiempo, sino que también demanda una mente abierta. Se trata de recursos escasos. Durante las tres últimas décadas de debates, he sido plenamente consciente —a veces de forma mucho menos amistosa de lo que me gustaría— de que algunas de las ideas defendidas en este volumen y en los anteriores son controvertidas. No se pretende que lo sean a propósito. Al mismo tiempo, también me he dado cuenta de que a menudo se cometen errores al confiar en «atractores sistémicos»: si una idea nueva se parece un poco a una vieja idea que ya tenemos, entonces la vieja actuará como un imán que atrae casi irresistiblemente a la nueva. Acabamos pensando que «lo nuevo» es igual que «lo viejo» y que, entonces, «lo viejo» no puede ser «lo nuevo» y, por lo tanto, o bien «lo viejo» se puede descartar o, si no nos gusta «lo viejo», «lo nuevo» tampoco nos gusta. Esta es una mala filosofía, pero se requiere de fuerza mental y ejercicio para resistirse a un cambio tan poderoso. Lo sé. Hablo como pecador. En el caso de este libro, me preocupa que algunos lectores se sientan tentados a concluir que es un libro antitecnológico, un libro en el que señalo los límites de la IA o lo que «la IA no puede hacer». También pueden llegar a la conclusión de que este libro es demasiado optimista sobre la tecnología, demasiado enamorado de la revolución digital y de la IA como panacea. Ambas conclusiones son erróneas. El libro es un intento de permanecer en el medio, en un lugar que no es ni el infierno ni el paraíso, sino el laborioso purgatorio de los esfuerzos humanos. Por supuesto, me sentiría decepcionado si me dijeran que he fracasado a pesar de mi intento. Pero me sentiría aún más decepcionado y frustrado si el intento fuera malinterpretado. Hay muchas formas de apreciar la tecnología. Una de ellas es en términos de buen diseño y gobernanza ética, y creo que es el mejor enfoque. El lector no tiene por qué seguirme tan de cerca, pero no debe equivocarse de la dirección que estoy tomando.

Como en los volúmenes anteriores, he incluido resúmenes y conclusiones al principio y al final de cada capítulo, junto con alguna redundancia, para ayudar al lector a acceder más fácilmente al contenido de este libro. En cuanto a la primera característica, sé que es poco ortodoxa. Pero la solución de empezar cada capítulo con un «anteriormente en el capítulo x…» debería permitir al lector hojear el texto, o avanzar rápidamente por capítulos enteros del mismo, sin perder lo esencial de la trama. Los aficionados a la ciencia ficción que reconozcan la referencia a Battlestar Galactica, que sigue siendo una de las mejores series que he visto nunca, pueden considerar este cuarto volumen como equivalente a la cuarta temporada. Y, por cierto, intenté convencer a un antiguo que me dejara usar la frase «anteriormente, sobre el capítulo x…», pero me pareció demasiado enrevesada.3 Uno de los revisores anónimos sugirió suprimir el breve resumen al principio de cada capítulo. Decidí mantenerlos en parte porque creo que, en el mejor de los casos, ayudan y, en el peor, no perjudican, y parcialmente porque es una característica de todos los libros que he publicado en este amplio proyecto.

En cuanto a la segunda característica, al editar la versión final del libro, decidí dejar algunas repeticiones y reformulaciones de temas recurrentes en los capítulos, siempre que me parecía que el lugar en el que se había introducido el contenido original estaba demasiado alejado en términos de páginas o de contexto teórico. Si a veces el lector experimenta algún déjà vu, espero que sea siempre en beneficio de la claridad, y más como una característica que como un error.

Un último comentario sobre lo que el lector no encontrará en las páginas siguientes. Esto no es una introducción a la IA o a la ética de la IA. Tampoco pretendo ofrecer una investigación exhaustiva de todas las cuestiones que podrían englobarse bajo la etiqueta de «ética de la IA». Los revisores anónimos me recomendaron suprimir varios capítulos breves en los que trataba de aplicar las ideas desarrolladas en la segunda parte. El lector interesado podrá encontrarlos en la Social Science Research Network (SSRN), a mi nombre. Espero trabajar más extensamente en un proyecto de auditoría ética de la IA y la contratación ética de la IA (dos temas cruciales que aún no se han explorado lo suficiente) y he dejado las consideraciones geopolíticas sobre las políticas de IA para The Politics of Information. El lector interesado también puede consultar Cath et al. (2018) sobre Estados Unidos, la Unión Europea (UE) y Reino Unido (Floridi et al.) o Roberts, Cowls, Morley et al. (2021) y Hine y Floridi (2022) sobre el enfoque chino. Este tampoco es un libro sobre los aspectos estadísticos y computacionales de las denominadas cuestiones ERT (equidad, responsabilidad y transparencia) o XAI (IA explicable), ni sobre la legislación al respecto. Estos temas solo se abordarán superficialmente en los siguientes capítulos.4 Este es un libro filosófico sobre algunas de las raíces —y ninguna de las hojas— de algunos de los problemas de la IA de nuestro tiempo. Se trata de una nueva forma de agencia, su naturaleza, alcance y retos. Y sobre cómo aprovechar esta capacidad en beneficio de la humanidad y el medio ambiente.

1 «Infoesfera» es una palabra de la que me apropié hace años para referirme a todo el entorno informacional conformado por el conjunto de todas las entidades informativas (incluidos los agentes informativos), sus propiedades, interacciones, procesos y relaciones mutuas. Se trata de un entorno comparable al ciberespacio (siente el ciberespacio una subregión de la infoesfera), aunque también diferente de él porque también incluye espacios de información offline y analógicos. Es un entorno y, por tanto, un concepto, que evoluciona rápidamente. Véase https://es.wikipedia.org/wiki/Infoesfera [consultada el 16/4/2024].

2 El lector puede consultar Allo (2010), Demir (2012) y Durante (2017).

3 En la versión original en inglés, Floridi hace aquí un juego de palabras con las preposiciones in y on en las expresiones previously inchapter x… y previously, on Chapter x… Como cabría esperar, este juego de palabras no tiene una correspondencia directa en español. (N. del T.)

4 Para más información, véase Watson y Floridi (2020), Lee y Floridi (2020) y Lee, Floridi y Denev (2020).

Agradecimientos

Dados los tres primeros volúmenes, me veo obligado a reconocer aquí algunas cosas que ya he reconocido en el pasado. Aun así, la repetición no hace sino reforzar mi profunda gratitud.

Como con las obras anteriores, no podría haber trabajado en un proyecto a tan largo plazo sin dividirlo en tareas factibles y mucho más pequeñas. Me alegra ver que tantos componentes encajan al final. Por supuesto, espero que esto sea síntoma de un proyecto bien planificado. Pero me temo que cuanto mayor me hago, más probable es que se deba a alguna resistencia mental al cambio (también conocida como esclerosis). Las personas mayores no cambian de opinión fácilmente. Y repetir este comentario año tras año no me tranquiliza.

En cuanto a los tres volúmenes anteriores, gran parte del contenido presentado en ellos fue inicialmente ensayado como ponencias en reuniones (congresos, talleres, convenciones, seminarios conferencias, etc.) o artículos de revistas. Para ello, los detalles bibliográficos figuran en la lista de referencias. Esta forma sistemática y gradual de trabajar es laboriosa, pero parece fructífera, y también puede ser inevitable dado el carácter innovador del campo. Ello requiere de una perseverancia y un compromiso que espero no se malogren. He querido evaluar las ideas presentadas en este volumen lo más exhaustivamente posible. La presentación del material y la publicación de los artículos correspondientes me ha dado la oportunidad y el privilegio de recibir una gran cantidad de comentarios de un gran número de excelentes colegas y evaluadores anónimos. Si no les doy las gracias a todos ellos, no es por falta de modales o de espacio; los agradecimientos figuran en las publicaciones correspondientes.

Sin embargo, hay algunas personas a las que me gustaría mencionar explícitamente porque desempeñaron un papel importante a lo largo del proyecto y durante las revisiones del texto final. En primer lugar, a Kia. Llevamos casados tanto tiempo como yo trabajando en el proyecto Principia. Sin ella, nunca habría tenido la confianza para emprender semejante tarea ni la energía espiritual para completarla. Se requiere una gran dosis de serenidad para invertir tanto tiempo en el pensamiento filosófico, y Kia es mi musa. Repito algo que ya escribí en los volúmenes anteriores: ella sigue haciendo que nuestra vida sea feliz, y le estoy muy agradecido por las interminables horas que pasamos hablando de los temas del Principia, por todas sus agudas sugerencias y por su encantadora paciencia con un marido absolutamente obsesionado, de mente enfocada, que debe ser insoportable para cualquier otra persona. Ojalá poder decir que he contribuido a su investigación en neurociencia ni la mitad de lo que ella ha contribuido a mi desarrollo filosófico. Es un inmenso privilegio poder recibir consejos de una mente brillante y una pensadora elegante. Entre el segundo y este tercer volumen, nos mudamos a la casa de nuestros sueños en Oxfordshire. Es el lugar perfecto para pensar. Y durante la pandemia, disfrutamos de un año de luna de miel. No tuvo precio.

Nikita Aggarwal, Ben Bariach, Alexander Blanshard, Tim Clement-Jones, Josh Cowls, Sue Daley, Massimo Durante, Emmie Hine, Joshua Jaffe, Thomas C. King, Michelle Lee, Jakob Mökander, Jessica Morley, Claudio Novelli, Carl Öhman, Huw Roberts, Andreas Tsamados, Ugo Pagallo, David Sutcliffe, Mariarosaria Taddeo, Vincent Wang, David Watson, Marta Ziosi, así como muchos estudiantes, miembros y visitantes del Digital Ethics nuestro grupo de investigación en Oxford y el Centro de Ética Digital de Bolonia, quienes fueron generosos con su tiempo y sus ideas en los últimos años. Me han brindado numerosas oportunidades de debate y reflexión sobre los temas analizados en este libro. También me han salvado de errores embarazosos más veces de las que puedo recordar. Gran parte de la investigación que ha dado lugar a este libro se ha hecho en colaboración con ellos, al punto de considerarlos a todos como coautores en lo que respecta al valor intelectual de los capítulos que siguen. Aun así, yo siendo el único responsable de las deficiencias. Más concretamente, muchos capítulos se basan en publicaciones anteriores, y esta es la lista: capítulo 3, Floridi (2019f) y Floridi (2020a); capítulo 4, Floridi y Cowls (2019); capítulo 5, Floridi (2019e); capítulo 6, Floridi (2018a); capítulo 7, Tsamados et al. (2020); capítulo 8, King et al. (2019); capítulo 9, Floridi et al. (2020); capítulo 10, Floridi et al. (2018) y Roberts, Cowls, Hine, Mazzi et al. (2021); capítulo 11, Cowls et al. (2021a); capítulo 12, Floridi y Nobre (2020). Estoy muy agradecido a todos los coautores por nuestras fructíferas colaboraciones y por su permiso para reutilizar nuestro trabajo.

He aprendido mucho de los colegas con los que he interactuado, aunque me hubiera gustado poder aprender más. Una diferencia importante con respecto a los tres volúmenes anteriores es que, en este caso, también he aprendido mucho de mis interacciones con expertos que trabajan en empresas como DeepMind, Deloitte, EY, Facebook, Fujitsu, Google, IBM, IVASS, Intesa Sanpaolo McKinsey, Microsoft, Vodafone, SoftBank y muchas otras. También aprendí de instituciones, como la Comisión Europea, el Supervisor Europeo de Protección de Datos (Grupo Consultivo de Ética del SEPD), el Consejo de Europa, la Cámara de los Comunes, la Cámara de los Lores, el Centre for Data Ethics and Innovation, la Digital Catapult, la Information Commissioner’s Office (ICO), el Instituto Alan Turing, la Autoridad de Conducta Financiera (FCA), el Vodafone Institute, la Audi Foundation Beyond, Atomium-European Institute for Science, etc. La importancia y trascendencia de algunos de los problemas que analizo en este libro no habrían sido tan evidentes de no haber sido por el control de la realidad que me ha proporcionado el mundo de los negocios, la política y la sociedad civil.

Ya he dicho que Peter Momtchiloff fue fundamental en la realización de los tres volúmenes (tanto por su previsora invitación a publicarlos en Oxford University Press como por su apoyo y su firme paciencia cuando parecía que nunca los terminaría). Lo mismo cabe decir para este volumen, con un agradecimiento especial que deseo reiterar aquí: él fue quien me hizo darme cuenta de que sería mejor publicar Ética de la inteligencia artificial y Política de la información en dos volúmenes separados.

Danuta Farah y Krystal Whittaker, mis asistentes personales, me han proporcionado un apoyo excepcional y una impecable capacidad de gestión, sin las cuales no habría podido completar este proyecto.

La investigación que ha dado lugar a este libro ha contado con el apoyo, en distintos grados y formas, de varias becas en los últimos años. Deseo expresar aquí mi reconocimiento a las siguientes fuentes: el Alan Turing Institute; Atomium-European Institute for Science, Media and Democracy; Engineering and Physical Sciences Research Council (EPSRC); Comisión Europea, Horizonte 2020; Comisión Europea, Programa de becas Marie Skłodowska-Curie; Facebook; Fujitsu; Google; Microsoft; Tencent; el Fondo John Fell de la Universidad de Oxford; y el Alma Mater, Università di Bologna.

En cuanto a la divulgación, he participado en muchas iniciativas y proyectos relacionados con los temas tratados en este libro. Me temo que la lista es larga, pero aquí está en orden cronológico desde 2014: presidente del Consejo de Ética del Clúster Ciencia de la Inteligencia (SCIoI), Iniciativa de Excelencia Alemana, Deutsche Forschungsgemeinschaft (DFG, Fundación Alemana de Investigación); miembro del Consejo Asesor del Instituto de Inteligencia Artificial del Ministerio de Asuntos Exteriores de Reino Unido; miembro del Consejo Asesor del Instituto Vodafone para la Inteligencia Artificial del Reino Unido; miembro del Vodafone Institute for Society and Communications; miembro del Consiglio Scientifico, Laboratorio de Tecnología Humana, Università Cattolica del Sacro Cuore, Italia; miembro del Consejo Ético, MediaFutures: Research Centre for Responsible Media Technology & Innovation, Universidad de Bergen, Noruega; presidente del Comité de Ética del proyecto Machine Intelligence Garage, Digital Catapult, Programa de Innovación del Reino Unido; miembro del Consejo del Centre for Data Ethics; miembro del Consejo del Centro de Ética e Innovación de Datos (CDEI), Reino Unido; miembro del Information Commissioner’s Office (ICO), Reino Unido; miembro de la Junta Asesora de Inteligencia Artificial de EY; miembro de la Junta Asesora de Leonardo Civiltà dello Stato, Italia; miembro del Consejo de Administración del Centro Europeo de Ética e Innovación de Datos (CDEI), Reino Unido; miembro del Consejo Asesor del Instituto para la Inteligencia Artificial Ética en la Educación (IEEE); miembro del Institute for Ethical AI in Education (IEAIE), Reino Unido; miembro del Comité del Vaticano sobre la Ética de la Inteligencia Artificial; miembro del Consejo Asesor sobre Ética Tecnológica del Grupo Parlamentario Multipartidista sobre Análisis de Datos (IAPPGDA), Reino Unido; miembro del Consejo Asesor sobre Open Finance, Financial Conduct Authority (FCA), Reino Unido; miembro del Comité de Expertos del Consejo de Europa sobre las Dimensiones de los Derechos Humanos del Tratamiento Automatizado de Datos y las Diferentes Formas de Inteligencia Artificial (MSI-AUT) - Comité Director Ministerial sobre Medios de Comunicación y Sociedad de la Información (CDMSI); miembro del Consejo Asesor Externo de Tecnología Avanzada de Google; miembro del Consejo del Foro Económico Mundial sobre el Futuro de la Tecnología, los Valores y la Política; presidente del Comité Científico de AI4People, «primer foro global europeo sobre el impacto social de la IA»; presidente del Consejo Asesor de la Conferencia Internacional de Comisarios de Protección de Datos y Privacidad, SEPD, UE, 2018; presidente del Consejo Asesor Ético de IMI-EMIF, el Marco Europeo de Información Médica de la UE; presidente del Grupo de Trabajo sobre Ética Digital de Facebook; presidente del Grupo de Ética de los Datos del Alan Turing Institute, Reino Unido; miembro del Science Panel, Commitment to Privacy and Trust in Internet of Things Security (ComPaTrIoTS) Research Hub, Consejo de Investigación de Ingeniería y Ciencias Físicas, Reino Unido; miembro del comité sobre las dimensiones éticas de la protección de datos, SEPD, UE; miembro del grupo de trabajo sobre gobernanza de datos de la Royal Society y la British Academy; Reino Unido; copresidente del Grupo de Trabajo sobre Ética en la Ciencia de Datos, Oficina del Gabinete, Reino Unido; miembro del Consejo Asesor de Google sobre el Derecho al Olvido. La lista debería estar completa, pero si he olvidado alguna fuente de financiación o papel que haya podido desempeñar en los últimos años y que debería mencionarse aquí, espero que me perdonen.

La redacción final de este libro ha sido posible gracias a un año sabático, por el que estoy muy agradecido a la Universidad de Oxford, y el extraordinario apoyo de la Universidad de Bolonia. Tengo el privilegio de trabajar para instituciones tan asombrosas.

Materiales auxiliares

ÍNDICE DE IMÁGENES

1. Mapa del conocimiento de la IA

2. Cambiando los datos históricos por datos sintéticos

3. Transformación de tareas difíciles en tareas complejas

4. ChatGPT, 30 de enero de 2023. Prueba 1

5. ChatGPT, 30 de enero de 2023. Prueba 2

6. ChatGPT, 30 de enero de 2023. Prueba 3

7. Marco ético de los cinco principios generales de la IA

8. Ética digital, regulación digital y gobernanza digital

9. El espacio de la ética blanda

10. Ética blanda y dura y su relación con la regulación

11. Análisis del impacto ético (AIE): el ciclo de análisis prospectivo

12. Evaluación del impacto de la ética digital

13. Una ecuación difícil de equilibrar

14. Ejemplo de una cascada normativa

15. Seis tipos de preocupaciones éticas planteadas por los algoritmos

16. Oportunidades, riesgos, y costes de la IA

17. Muestra de 108 proyectos de IA que abordan los ODS

18. Proyectos de IA en la base de datos de Oxford sobre IAxODS

ÍNDICE DE TABLAS

1. Seis conjuntos de principios éticos para la IA

2. Los cinco principios de los documentos analizados

3. Mapa de las amenazas específicas y las amenazas transversales

4. Siete iniciativas de Cowls et al. (2019)

5. Siete factores de IA-BS y las mejores prácticas correspondientes

LISTA DE LOS ACRÓNIMOS Y LAS ABREVIACIONES MÁS FRECUENTES

AA

agente artificial

AIE

análisis de impacto ético

Alice

un agente humano estándar

AM

aprendizaje automatizado o de máquinas

Bob

un agente humano estándar

DIA

delito a partir de la inteligencia artificial

GEE

grupo europeo sobre la ética en ciencia y nuevas tecnologías (European Group on Ethics in Science and New Technologies)

GEI

gas de efecto invernadero

IAG

inteligencia artificial general

IA

inteligencia artificial

IAcS

inteligencia artificial como servicio

IA-BS

inteligencia artificial por el bien social

IAxODS

inteligencia artificial por los Objetivos de Desarrollos Sostenible

IIR

innovación e investigación responsable

IELS

implicaciones éticas, legales y sociales

JRT

justicia, responsabilidad y transparencia

NdA

nivel de abstracción

NHS

Servicio Nacional de Salud de Reino Unido

OCED

Organización para la Cooperación Económica y el Desarrollo

ODS

Objetivos de Desarrollo Sostenible de las Naciones Unidas

RGA

redes generativas de adversario

RGPD

regulación general de protección de datos (General Data Protection Regulation)

SEPD

supervisor europeo de la protección de datos (European Data Protection Supervisor)

SMA

sistemas multiagente

TGP

transformadores generativos preentrenados

TIH

tareas de inteligencia humana

TIC

tecnología de la información y la comunicación

UIT

unión internacional de telecomunicación

UE

Unión Europea

UUV

vehículo submarino no tripulado

El uso de «Alice» como un sinónimo de «agente» no es simplemente una referencia propia de Oxford. Aquellos lectores familiarizados con la bibliografía sobre información cuántica reconocerán «Alice» o «Bob» como los nombres o etiquetas más memorables empleadas para agentes abstractos o partículas (véase https://es.wikipedia.org/wiki/Alice_y_Bob [página consultada el 17/4/2024]).

Primera parte · Entendiendo la IA

La primera parte del libro puede leerse como una breve introducción filosófica al pasado, presente y futuro de la inteligencia artificial (IA). Consta de tres capítulos. Estos proporcionan en conjunto el marco conceptual necesario para comprender la segunda parte del libro, que aborda algunas cuestiones éticas acuciantes planteadas por la IA. En el capítulo 1, reconstruyo la aparición de la IA en el pasado, no desde el punto de vista histórico ni tecnológico, sino conceptual y en términos de las transformaciones que han conducido a los sistemas de IA que se utilizan hoy en día. En el capítulo 2 articulo una interpretación de la IA contemporánea en términos de una reserva de agencia posibilitada por dos factores: el divorcio entre (a) la capacidad de resolver problemas y completar tareas para alcanzar un objetivo y (b) la necesidad de ser inteligente al hacerlo; y la progresiva transformación de nuestro entorno en una infoesfera favorable a la IA. Este último factor hace que el divorcio entre agencia e inteligencia no solo sea posible, sino exitoso. En el capítulo 3, concluyo la primera parte del volumen examinando los posibles avances de la IA en un futuro próximo, insisto, no desde el punto de vista técnico o tecnológico, sino conceptualmente y en términos de los tipos preferentes de datos requeridos y las clases de problemas más fácilmente abordables por la IA.

1. Pasado: el surgimiento de la IA

RESUMEN

El apartado 1 comienza ofreciendo una breve visión general de cómo los avances digitales han conducido a la actual disponibilidad y éxito de los sistemas de IA. El apartado 2 interpreta el impacto disruptivo de las tecnologías, las ciencias, las prácticas, los productos y los servicios digitales —en pocas palabras, «lo digital»— que se debe a su capacidad para cortar y pegar realidades e ideas que hemos heredado de la Modernidad. A esto lo llamo el poder de corte de lo digital. Lo ilustro con algunos ejemplos particulares. A continuación, lo utilizo para interpretar la IA como una nueva forma de «agencia inteligente» resultante de la disociación digital de la agencia y la inteligencia, un fenómeno sin precedentes que ha provocado algunas distracciones y malentendidos como, por ejemplo, «la singularidad». El apartado 3 presenta una breve digresión sobre la agencia política, el otro tipo significativo de agencia transformado por el poder de corte de lo digital. En ella se explica brevemente por qué la agencia política es esencial y de gran relevancia, aunque quede fuera del alcance de este libro. El apartado 4 vuelve a la cuestión principal de la interpretación conceptual de la IA e introduce el capítulo 2 recordando al lector la dificultad de definir y caracterizar la IA. En el apartado final sostengo que el diseño es la contrapartida del poder de corte de lo digital y anticipo algunos de los temas que se tratarán en la segunda mitad del libro.

1. INTRODUCCIÓN: REVOLUCIÓN DIGITAL E IA

En 1964, Paramount Pictures distribuyó Robinson Crusoe en Marte. La película trataba sobre las aventuras del comandante Christopher «Kit» Draper (Paul Mantee), un astronauta estadounidense náufrago en Marte. Dedique el lector unos minutos a verla en YouTube y verá lo radicalmente que ha cambiado el mundo en unas pocas décadas. En particular, el ordenador de la película parece un motor victoriano con palancas, engranajes y diales —una pieza de arqueología que podría haber utilizado el Dr. Frankenstein—. Y, sin embargo, hacia el final de la de la historia, Friday (Victor Lundin) es rastreado por una nave extraterrestre a través de sus brazaletes, una pieza de futurología que parece inquietantemente premonitoria.

Robinson Crusoe en Marte pertenecía a una época diferente, tecnológica y culturalmente más cercana al siglo pasado que al actual. Esta nos muestra una realidad moderna, no contemporánea, basada en hardware, no en software. Todavía estaban por llegar los portátiles, internet, los servicios web, las pantallas táctiles, los smartphones, los smartwatches, las redes sociales, las compras en línea, el streaming de vídeo y música, los coches sin conductor, los cortacéspedes robotizados, los asistentes virtuales y el metaverso. La IA era principalmente un proyecto, no una realidad. La película muestra una tecnología de tuercas, tornillos y mecanismos que siguen las toscas leyes de la física newtoniana. Era una realidad analógica basada en átomos y no en bytes. Esta realidad es la que los millennials nunca han experimentado, habiendo nacido desde principios de los años ochenta en adelante. Para ellos, un mundo sin tecnologías digitales es como lo que fue para mí un mundo sin coches (casualmente, nací en 1964): algo de lo que solo había oído hablar a mi abuela.

A menudo se suele afirmar que un teléfono inteligente tiene mucha más capacidad de procesamiento contenida en unos pocos centímetros que la que empleó la NASA para enviar a Neil Armstrong a la Luna cinco años después de Robinson Crusoe en Marte, en 1969. Tenemos toda esta potencia a un coste casi insignificante. Para el quincuagésimo aniversario del alunizaje, en 2019, muchos artículos publicaron comparaciones y aquí algunos datos asombrosos. El ordenador guía del Apolo 11 tenía 32 768 bits de memoria de acceso aleatorio o RAM (Floridi et al.) y 589 824 bits (72 KB) de memoria de solo lectura o ROM. No se podría haber almacenado este libro en él. Cincuenta años después, el teléfono viene con 4 GB de RAM y 512 GB de ROM. Eso es alrededor de un millón de veces más RAM y 7 millones de veces más ROM. En cuanto al procesador, el AGC funcionaba a 0,043 MHZ. El procesador medio de un iPhone funciona a 2490 MHZ, es decir, unas 58 000 veces más rápido. Para hacerse una idea más clara de esta aceleración quizá pueda ser útil otra comparación. De media, una persona suele caminar a un ritmo de 5 km/h. Un avión hipersónico viaja algo más de mil veces más rápido, a 6 100 km/h, algo más de cinco veces la velocidad del sonido. Imagínese multiplicar esta última cantidad por 58 000.

¿Adónde han ido a parar toda esta velocidad y capacidad computacional? La respuesta aquí es doble: viabilidad y usabilidad. En términos de aplicaciones, cada vez podemos hacer más. Podemos hacerlo de manera cada vez más fácil, no solo en términos de programación, sino sobre todo en términos de experiencia del usuario. Los vídeos, por ejemplo, consumen muchos recursos informáticos. Lo mismo ocurre con los sistemas operativos. La IA es posible hoy también precisamente porque tenemos la capacidad computacional necesaria para ejecutar su software.

Gracias a este crecimiento alucinante de las capacidades de almacenamiento y procesamiento a costes cada vez más asequibles, miles de millones de personas están conectadas hoy en día. Pasan muchas horas en línea cada día. Según Statista.com, por ejemplo, «en 2018, el tiempo medio de uso de internet [en Reino Unido] era de 25,3 horas a la semana. Esto supuso un aumento de 15,4 horas en comparación con 2005».1 Esto dista mucho de ser inusual, y la pandemia ha hecho aún más significativo este aumento. Volveré sobre este punto en el capítulo 2, pero otra razón por la que la IA es posible hoy es porque cada vez pasamos más tiempo en contextos digitales y favorables a la IA.

Más memoria, capacidad, velocidad y entornos e interacciones digitales han generado más datos en unas cantidades astronómicas. Todos hemos visto diagramas con curvas exponenciales que indican cantidades que ni siquiera sabemos imaginar. Según la empresa de inteligencia de mercado IDC,2 en el año 2018 la humanidad alcanzó los 18 zettabytes de datos (ya sean creados, capturados o replicados). Este asombroso crecimiento de la cantidad de datos existentes no muestra signos de doblegarse; de hecho, aparentemente alcanzará los 175 zettabytes en 2025. Esto es difícil de entender en términos de cantidad, pero hay dos consecuencias que merecen un momento de reflexión.3 En primer lugar, la velocidad y la memoria de nuestras tecnologías digitales no crecen al mismo ritmo que el universo de datos. Así pues, estamos pasando rápidamente de una cultura del almacenaje a otra del borrado. La cuestión ya no es qué guardar, sino qué borrar para dejar espacio a nuevos datos. En segundo lugar, la mayoría de los datos disponibles se han creado desde la década de 1990 (aun si incluimos cada palabra pronunciada, escrita o impresa en la historia de la humanidad e incluso todas las bibliotecas o archivos que han existido). Basta con mirar cualquiera de esos diagramas en línea que ilustran la explosión de datos: lo asombroso no solo está a la derecha, hacia donde va la flecha del crecimiento, sino también a la izquierda, desde donde empieza. Eso era tan solo hace un puñado de años. Debido a que todos los datos que tenemos fueron creados por la generación actual, estos también se están quedando anticuados en términos de su soporte y sus tecnologías obsoletas. Así que su conservación será una cuestión cada vez más acuciante.

Más capacidad computacional y más datos han hecho posible el paso de la lógica a la estadística. Las redes neuronales, que antes únicamente tenían interés teórico,4 se han convertido en herramientas habituales del aprendizaje automático o de máquina (AM). La antigua IA era principalmente simbólica y podía interpretarse como una rama de la lógica matemática, pero la nueva IA es sobre todo conexionista y puede interpretarse como una rama más de la estadística. El principal caballo de batalla de la IA ya no es la deducción lógica, sino la inferencia estadística y la correlación.

La capacidad y velocidad computacional, el tamaño de la memoria, el volumen de datos, los efectos de los algoritmos y herramientas estadísticas y el número de interacciones online han ido creciendo increíblemente rápido. Esto también se debe a que (en este caso, la conexión causal va en ambos sentidos) el número de dispositivos digitales que interactúan entre sí ya es varias veces mayor que la cantidad de seres humanos. Así, la mayor parte de la comunicación es ahora de máquina a máquina, sin intervención humana. Tenemos robots informatizados en Marte controlados a distancia desde la Tierra. El comandante Christopher «Kit» Draper los habría encontrado absolutamente asombrosos.

Todas las tendencias que acabamos de mencionar seguirán creciendo, sin descanso, en un futuro próximo. Han cambiado la forma en que aprendemos, jugamos, trabajamos, amamos, odiamos, elegimos, decidimos, producimos, vendemos, compramos, consumimos, creamos publicidad, nos divertimos, cuidamos a otros y nos cuidamos a nosotros, socializamos, nos comunicamos los unos con los otros, etc. Parece imposible localizar un rincón de nuestras vidas que no se haya visto afectado por la revolución digital. Desde hace aproximadamente medio siglo, nuestra realidad es cada vez más digital. Esta se compone de ceros y unos y funciona con software y datos en lugar de con hardware y átomos. Cada vez más personas viven más onlife (Floridi, 2014b), tanto conectados [online] como desconectados [offline], y en la infoesfera, tanto digital como analógicamente.

Esta revolución digital también afecta a cómo conceptualizamos y entendemos nuestra realidad, que se interpreta cada vez más en términos computacionales y digitales. Basta pensar en la «vieja» analogía entre el ADN y el «código», que ahora damos por sentada. La revolución ha impulsado el desarrollo de la IA, ya que compartimos nuestras experiencias vitales y nuestros entornos de infoesfera con agentes artificiales (AA), ya sean algoritmos, bots o robots. Para entender lo que puede representar la IA —sostendré que esta constituye una nueva forma de agencia, no de inteligencia— hay que decir más sobre el impacto de la propia revolución digital. Esa es precisamente la tarea de este capítulo. Solo comprendiendo la trayectoria conceptual de sus implicaciones podremos enfocar correctamente la naturaleza de la IA (capítulo 2), su posible evolución (capítulo 3) y sus retos éticos (segunda parte del libro).

2. EL PODER DE CORTE DE LO DIGITAL: CORTAR Y PEGAR LA MODERNIDAD

Las tecnologías digitales, las ciencias, las prácticas, los productos y los servicios digitales —en resumen, lo digital como fenómeno global— están transformando profundamente la realidad. Esto es obvio e indudable. Las verdaderas preguntas son por qué, cómo y para qué, especialmente en lo que se refiere a la IA. En cada caso, la respuesta está lejos de ser trivial y por supuesto se encuentra abierta a debate. Para explicar las respuestas que me parecen más convincentes e introducir así una interpretación de la IA como una reserva cada vez mayor de «agencia inteligente» [smart agency] en el próximo capítulo, permítanme empezar in medias res, es decir, desde el cómo. Así será más fácil retrotraernos para entender el por qué y luego adelantarnos para tratar el para qué, antes de vincular las respuestas a la aparición de la IA.

Diríamos que lo digital «corta y pega» nuestras realidades, tanto ontológica como epistemológicamente. Con esto me refiero a que lo digital acopla, desacopla o reacopla características del mundo (nuestra ontología) y, por tanto, nuestras asunciones sobre el mundo (nuestra epistemología), las cuales parecían inmutables. De este modo, lo digital rompe y reconstruye los «átomos» de nuestra experiencia y cultura «modernas», por así decirlo. Remodela por completo el cauce del río, por utilizar una metáfora wittgensteiniana. Los siguientes ejemplos preliminares nos ayudarán a iluminar esta idea.

Consideremos en primer lugar uno de los casos más significativos de acoplamiento. La identidad propia y los datos personales no siempre han estado unidos de manera tan indistinguible como ahora, cuando hablamos de la «identidad personal» de los «sujetos de los datos». En este sentido, los registros censales son muy antiguos (Alterman, 1969), y la invención de tecnologías como la fotografía han tenido un enorme impacto en la privacidad (Warren y Brandeis, 1890). Durante la Primera Guerra Mundial, los gobiernos europeos obligaron a viajar con pasaporte por motivos de migración y seguridad, ampliando así el control del Estado sobre los medios de movilidad (Torpey, 2000). Pero ha sido únicamente lo digital, con su inmenso poder para registrar, controlar, compartir y procesar cantidades ilimitadas de datos sobre quién es (digamos) Alice, lo que ha permitido acoplar su identidad personal y su perfil, junto con información personal sobre ella. La privacidad se ha convertido en un problema acuciante también, si no principalmente, debido a este acoplamiento. Hoy, al menos en la legislación de la UE, la protección de datos se debate en términos de dignidad humana (Floridi, 2016c) y de identidad personal (Floridi, 2005a), con los ciudadanos tratados como «sujetos de datos».