Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
¿Qué supone la inteligencia artificial generativa para el sector de la información y la comunicación? ¿Qué desafíos éticos, de buenas prácticas y de derechos de propiedad intelectual encaramos? Once especialistas de ámbitos y procedencias diversas reflexionan sobre las claves, los retos y las oportunidades que supone el uso de la inteligencia artificial a medio y largo plazo, aportando una rica paleta de perspectivas y matices. Este primer volumen de la Biblioteca Digital Journey proporciona un conjunto de análisis y materiales que servirán, sin duda, a todos aquellos que se aproximen por primera vez a las importantes transformaciones que ya está provocando la IA, y también a quienes trabajan de forma directa con esta tecnología que está llamada a revolucionar nuestra sociedad en los próximos años.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 313
Veröffentlichungsjahr: 2024
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
IA Generativa
La nueva era de la información
Pepe Cerezo (coord.)
DIGITAL JOURNEY
Biblioteca Digital Journey
Director de la colección: Pepe Cerezo
IA Generativa. La nueva era de la información
Primera edición: octubre de 2024
© De los textos: sus autores, 2024
© De esta edición:
Digital Journey, 2024 / www.digitaljourney.es
Trama editorial, 2024 / www.tramaeditorial.es
Diseño de la colección: Miguel San José Romano
ISBN: 978-84-129299-2-8
Introducción. Biblioteca Digital Journey. Deconstruyendo la sociedad digital
ÉTICA Y REGULACIÓN
Ética para la IA
Desafíos actuales de la inteligencia artificial en el sector de la Propiedad Intelectual
Libertad y competencia en el mercado de la IA
PERIODISMO Y COMUNICACIÓN
Desinformacion e inteligencia artificial
Google quiere ser ChatGPT, pero ChatGPT quiere ser Google
Cómo la IA cambia a los periodistas
Cuando la IA intentó ser el nuevo SEO de la redacción
Más allá del ruido: la IA revoluciona el audio
EL NEGOCIO
La IA para el negocio: de amenaza existencial a ‘aliado’ ineludible
Eficiencia vs. Originalidad: el impacto de la IA en la comunicación publicitaria
Las agencias creativas ante el auge de la IAG
Cubierta
Portada
Créditos
Comenzar a leer
Notas
Colofón
La colección que inaugura este libro es el primer proyecto asociado a Digital Journey. Un objeto físico, el libro, que se ha demostrado a lo largo de los siglos como una de las tecnologías más innovadoras y creativas de la humanidad. Lanzar en 2024 una colección en papel, de libros de pensamiento y debate sobre la transformación digital, y empezar por el impacto de la IA generativa es, por tanto, una declaración de intenciones. Este libro pretende ser el primero de una iniciativa profesional y vital de largo alcance.
Digital Journey nace como un centro de pensamiento y debate (Think Tank) cuyo objetivo es analizar y repensar de forma crítica el impacto de la digitalización en la sociedad, proponiendo soluciones y alternativas para un desarrollo sostenible e igualitario. Aunque en los últimos años han surgido algunos foros de debate y pensamiento como iniciativas de la sociedad civil, lo cierto es que en España, con escasa tradición en este ámbito, los Think Tanks han estado en gran medida vinculados a partidos políticos u organizaciones públicas. Nuestra intención es ofrecer un espacio –físico y virtual– independiente, destinado a la reflexión sobre el modelo de sociedad digital que queremos construir.
En el contexto de la economía de la atención, donde en gran medida se ha producido una enorme polarización y privatización de los espacios públicos de pensamiento, se hacen cada vez más necesarios entornos independientes de debate, que ofrezcan una perspectiva diversa sobre el modelo de sociedad digital que queremos.
Conforme avanza la digitalización, y su implantación alcanza ya todos los ámbitos, es necesario una nueva mirada, más crítica y responsable. En este sentido, el papel de los Think Tanks y de las diferentes organizaciones de la sociedad civil son cada vez más relevantes. Nuestro proyecto quiere contribuir a moldear un futuro digital que sea más justo, igualitario y centrado en las personas, asegurando que los beneficios de la tecnología se distribuyan de manera equilibrada y sostenible. Intentar ser el nexo entre los diferentes agentes sociales –administraciones, universidades, organizaciones públicas y privadas–, pero con el foco puesto en los ciudadanos.
Entendemos la transformación digital como la adaptación y consolidación de nuevas estructuras sociales, económicas y culturales. Nuestra intención es facilitar una voz para que la sociedad civil consiga que el progreso digital sea inclusivo y beneficioso para todos. Su participación y articulación es fundamental en todos los ámbitos, pero especialmente ahora que la inteligencia artificial ha venido a acelerar todo este proceso transformador.
Por todo ello, queríamos que el primer proyecto que lanzamos fuera poner en marcha una colección de libros con el objetivo de crear un corpus de pensamiento en español sobre el impacto de la digitalización –con especial atención a la IA– en los diferentes ámbitos de la sociedad, la economía y la cultura.
Queremos que este proyecto sea algo más que una colección de libros de pensamiento, prospectiva, sin olvidar el carácter divulgativo. Nuestra ambición es que su enfoque técnico no se sea una barrera para que el debate social se dé de forma transversal e inclusiva.
Con el hilo conductor de la transformaron digital, cada libro se afrontará desde perspectivas y formatos diferentes: ensayo, recopilación de artículos originales, entrevistas, entre otros.
En este primer número que inaugura la colección nos centramos en lo que está suponiendo la IA generativa para el sector de la información y comunicación. En este contexto hemos pedido a once expertos y expertas de diferentes ámbitos que nos ayuden a entender cuáles son, en su opinión, las claves y retos a los que nos enfrentaremos con la IA, a medio y largo plazo.
La diversidad de temas y autores, de ámbitos y procedencias diversas, aportan una rica paleta de perspectivas y matices que les servirán, sin duda, a todos aquellos que se aproximen por primera vez al debate sobre el impacto de la IA, pero también a los que trabajan de forma directa con esta tecnología que está llamada a revolucionar nuestra sociedad en los próximos años.
Como primera aproximación, hemos intentado tocar los puntos fundamentales, sabiendo que la rapidez y magnitud de los cambios son de tal dimensión que no podremos cubrir todos los aspectos relevantes. Seguro que no faltarán ganas ni tiempo para seguir analizando y evaluando todos aquellos temas y aspectos que por la propia evolución de la tecnología irán surgiendo.
Solo queda agradecer a los autores, todos y todas de enorme nivel profesional, su dedicación y apoyo incondicional a este proyecto que ahora se pone en marcha. Es nuestra intención crear una comunidad sólida y diversa que vaya creciendo con el tiempo.
En cualquier caso, estimado lector, deseamos, al menos, que este sea el comienzo de una gran amistad.
La inteligencia artificial (IA), antaño confinada a las páginas de novelas de ciencia ficción y a las especulaciones de filósofos y científicos visionarios, ha emergido como una fuerza transformadora que impregna casi todos los aspectos de nuestra vida cotidiana. Desde los asistentes virtuales en nuestros dispositivos móviles hasta los algoritmos que deciden qué noticias leemos o qué productos compramos, la IA está redefiniendo el tejido mismo de nuestra sociedad. Nos encontramos en una encrucijada histórica, un punto de inflexión en el que debemos reflexionar profundamente sobre las implicaciones éticas de una tecnología que no solo amplifica nuestras capacidades, sino que también desafía nuestros valores más fundamentales.
La revolución de la IA no es simplemente una cuestión tecnológica; es un fenómeno que plantea preguntas esenciales sobre lo que significa ser humano, sobre nuestra capacidad para discernir entre lo real y lo fabricado, y sobre cómo queremos que sea el mundo en el que vivimos. Por primera vez en la historia, nos enfrentamos a máquinas que no solo pueden procesar información a velocidades inimaginables, sino que también pueden aprender, adaptarse y, en cierta medida, crear. La IA tiene la capacidad de generar contenido desde cero, simulando la creatividad humana con una precisión y confianza que pueden hacernos dudar de qué es auténtico y qué es artificial.
Este fenómeno plantea interrogantes cruciales: ¿Cómo impactará en nuestra identidad individual y colectiva una tecnología que puede tomar decisiones y generar contenido sin supervisión humana? ¿Qué responsabilidades éticas deben asumir los diseñadores, desarrolladores y usuarios de estas tecnologías? ¿Estamos preparados para las implicaciones sociales, económicas y culturales que conlleva la integración masiva de la IA en nuestras vidas?
En este capítulo exploraremos las profundas implicaciones éticas de la inteligencia artificial, examinando los riesgos y oportunidades que presenta. Analizaremos los debates actuales en torno a la creación de contenidos, los negocios y la gestión de datos, y ofreceremos una visión de futuro que nos permita navegar éticamente en un mundo cada vez más impulsado por la IA. Mi intención es fomentar una reflexión crítica y constructiva que nos permita aprovechar al máximo el potencial de esta tecnología, al tiempo que minimizamos sus riesgos y protegemos los valores fundamentales de nuestra sociedad.
La ética en la IA es un campo relativamente nuevo, pero con raíces profundas en la filosofía y la literatura. La imaginación humana ha anticipado durante mucho tiempo las posibilidades y peligros de crear máquinas inteligentes. Escritores como Mary Shelley con Frankenstein y, más tarde, Isaac Asimov con sus cuentos de robots, exploraron las complejidades morales de dar vida a entidades artificiales.
Isaac Asimov en particular dejó una huella indeleble en el pensamiento sobre la ética en la IA al proponer las Tres Leyes de la Robótica en su colección de relatos Yo, Robot. Estas leyes, aunque ficticias, sentaron las bases para considerar cómo deberían comportarse las máquinas inteligentes en relación con los seres humanos:
Un robot no debe dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes que le sean dadas por los seres humanos, excepto si dichas órdenes entran en conflicto con la Primera Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Con el desarrollo de la Máquina de Turing a mediados del siglo XX, la cuestión de si una máquina puede pensar dejó de ser un mero ejercicio filosófico para convertirse en un desafío científico y tecnológico. Alan Turing, en su famoso artículo «Computing Machinery and Intelligence», propuso el «Test de Turing» como una forma de evaluar la capacidad de una máquina para exhibir un comportamiento inteligente indistinguible del de un ser humano.
Este avance abrió la puerta a debates profundos sobre la naturaleza de la conciencia, la inteligencia y la ética en la creación de máquinas capaces de pensar. ¿Qué significa que una máquina pueda «pensar»? ¿Tenemos el derecho de crear entidades que puedan sufrir o tener experiencias conscientes? Estas preguntas siguen siendo objeto de intensa discusión en la filosofía de la mente y la ética tecnológica.
Las Tres Leyes de la Robótica de Asimov, aunque revolucionarias en su momento, resultan insuficientes para abordar los complejos desafíos éticos que plantea la IA en la actualidad. La tecnología ha avanzado a un ritmo vertiginoso, y las aplicaciones de la IA se han expandido más allá de lo que Asimov o sus contemporáneos podrían haber imaginado.
Por esa razón, aunque no existe un marco regulatorio global unificado, diversos países y organismos internacionales están trabajando en el desarrollo de normas y directrices para garantizar el uso ético y responsable de la IA.
UNESCO: La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura aprobó en 2021 la primera norma mundial sobre la ética de la IA, la «Recomendación sobre la ética de la inteligencia artificial». Este documento establece una serie de principios éticos que deben guiar el desarrollo y uso de la IA, como la protección de los derechos humanos, la transparencia, la responsabilidad y la no discriminación.
Unión Europea: La Unión Europea ha presentado propuestas legislativas para regular la IA, con un enfoque en los sistemas de IA de alto riesgo. Estas propuestas buscan garantizar la seguridad, la transparencia y la no discriminación de los sistemas de IA que se utilizan en áreas sensibles como la justicia, la contratación y la gestión de infraestructuras críticas.
OCDE: La Organización para la Cooperación y el Desarrollo Económicos ha desarrollado una serie de principios para la IA, que incluyen la gobernanza inclusiva, la sostenibilidad, el respeto a los valores democráticos y el bienestar humano.
Los Principios de Asilomar: Guía elaborada por expertos en la materia que recoge 23 principios éticos para la investigación en inteligencia artificial
La ética y la inteligencia artificial son un campo en constante evolución. Es fundamental que los desarrolladores, los gobiernos, la sociedad civil y todas las partes interesadas trabajen juntos para garantizar que la IA se desarrolle y utilice de manera responsable y beneficiosa para todos.
Desde la aparición de la Inteligencia Artificial Generativa, los LLMs (Large Language Models o grandes modelos del lenguaje), y en especial con el lanzamiento de ChatGPT al gran público, el debate sobre los aspectos éticos de la inteligencia artificial ha adquirido una dimensión y una complejidad mucho mayores. Los aspectos éticos de los tradicionales sistemas de Machine Learning (aprendizaje de máquina) se reducían generalmente a la transparencia para poder explicar de forma sencilla cómo se generan las respuestas y a la eliminación de sesgos, muy relacionado con el aspecto anterior, para garantizar que los datos de entrenamiento sean neutros.
Los nuevos modelos plantean retos mucho más complejos que muchas veces se plantean de forma exagerada, confundiendo la realidad de la tecnología actual con la futura y el entrenamiento de los modelos con su uso. Por eso es necesario abordar esta cuestión estructurándola en tres áreas:
Entrenamiento de la IA, con foco en los aspectos más relacionados con la propiedad intelectual y el posible sesgo que pueden contener los datos utilizados.
Utilización de la IA: abordar el impacto puede generar las respuestas de la IA generativa, su posible uso comercial y las consecuencias de que la IA pueda actuar, por ejemplo, llamando a una API o conectándola a algún mecanismo, como el caso de los coches autónomos.
La IA general: se analizan algunos aspectos éticos de lo que podría venir en el futuro, cuando los sistemas de IA tengan capacidad real para pensar.
Una de las características de estos modelos generativos es la ingente cantidad de datos que necesitan para generar buenos resultados. Damos por sentado que estos datos se han obtenido todos de fuentes públicas (aunque se han suscitado dudas al respecto). El problema ético que se plantea aquí es el siguiente: OpenAI, por poner un caso conocido, está cobrando por utilizar el servicio de ChatGPT. Sin embargo, los autores que han publicado contenidos que han sido usados en el entrenamiento de ChatGPT no reciben ninguna compensación. La cuestión es ¿deberían recibirla?
Podemos pensar que el trabajo de un autor, aunque lo haya puesto a disposición del público en internet, debería ser compensado si se utiliza con fines comerciales. ¿Qué sucede entonces cuando este trabajo se busca con Google y se aprovecha su contenido? Aclaremos que no se trata de hacer plagio y vender el resultado, sino de inspirarse en un contenido para crear otro. De alguna forma es lo que hace ChatGPT a partir de la enorme inversión que ha realizado OpenAI en su desarrollo, entrenamiento y puesta a disposición del público y las empresas.
Un caso interesante es el de Reddit, que llegó a un acuerdo con OpenAI para poder utilizar todo su contenido para el entrenamiento de ChatGPT. Recordemos que este contenido en realidad lo generan los usuarios de Reddit que aparentemente no se benefician de dicho acuerdo.
Otra cuestión ética que plantea el uso de una cantidad tan grande de contenidos es si cualquier contenido debe o no utilizarse para entrenar un LLM o un generador de imágenes y películas. ¿Deben las grandes empresas de IA ser obligadas a restringir los contenidos si expresan opiniones que casi todos rechazamos o si incluyen imágenes pornográficas? La realidad es que, probablemente por motivos de imagen corporativa, todas estas grandes empresas se autolimitan y filtran este tipo de contenidos tanto a priori como a posteriori, una vez está entrenado el modelo. Desde mi punto de vista, creo que no debería existir una ley que obligue. Es una decisión de la empresa que ofrece el servicio definir qué tipo de contenidos utiliza y del usuario elegir qué servicio utilizar.
Aún en el caso de que se apliquen filtros, el entrenamiento con fuentes públicas puede crear ciertos sesgos en el resultado. ¿Cuál es el perfil de las personas que aportan contenidos a internet o que han escrito libros y son accesibles públicamente o que han escrito artículos científicos de interés, por poner algunos ejemplos? ¿Representan la diversidad de países, culturas, formas de pensar que existen en el planeta?
Una vez que el modelo de IA ha sido entrenado y convenientemente filtrado llega el momento de utilizarlo. Vamos a centrarnos aquí en el caso de los LLM, es decir modelos que proporcionan respuestas muy elaboradas a preguntas o problemas que plantea el usuario.
Desde que apareció ChatGPT ha sido fascinante ser testigo de cómo se producían simultáneamente dos críticas en principio contradictorias: una decía que el sistema era incapaz de pensar y de generar respuestas de calidad, y la otra que había que tener cuidado con lo que preguntábamos porque las respuestas podrían ser erróneas a pesar de su apariencia de correctas. La realidad es que la tecnología que ha hecho posible el GPT, hasta el punto de desarrollo que conocemos, únicamente predice la palabra siguiente más probable dado un texto inicial. Por tanto, aunque el resultado tenga una apariencia de corrección, porque la estructura, el estilo y la gramática son muy correctos, puede llegar a conclusiones erróneas o incluir datos falsos.
¿Existe un problema ético aquí? Hay críticos que consideran que una herramienta que produce resultados falsos puede confundir al usuario y llevarle a cometer acciones perjudiciales para él. La apariencia humana de las respuestas lleva a algunas personas (dicen los críticos) a utilizar ChatGPT como su psicólogo personal o incluso su confidente o amigo. Creo que deben ser casos muy excepcionales, y en todo caso deberíamos estar mucho más preocupados por el uso de internet en general, ya que puede generar interacciones con personas reales mucho más nocivas. Los usuarios deben ser responsables y entender que están usando una tecnología que tiene muchas limitaciones, por muy espectacular que sean los resultados que proporciona. El hecho de que exista ChatGPT no debe llevarnos a actuar a ciegas, como el conductor que siguiendo las indicaciones del GPS acaba atascando el coche en unas escaleras. El ser humano debe mantener siempre su pensamiento crítico y poner en cuestión todo lo que se le dice, venga de otra persona, de ChatGPT o de un GPS. La cuestión ética en este caso es la calidad de la educación que recibimos, no la existencia de estas herramientas.
Algo similar se ha planteado en el uso comercial, particularmente en aplicaciones críticas como el diagnóstico de enfermedades y la síntesis de fármacos. Los críticos insisten de nuevo en la falta de fiabilidad de un LLM y las consecuencias éticas que puede tener usar un sistema de este tipo si se diagnostica incorrectamente una enfermedad, lo cual no deja de ser sorprendente.
Es perfectamente conocido que un sistema de IA, tanto la tradicional como la generativa, no es infalible: es una herramienta que puede utilizar el médico como ayuda para el diagnóstico. La IA puede haber aprendido infinidad de síntomas y causas de las enfermedades, pero el diagnóstico final debe ser validado por un médico. Por eso la IA debe ser capaz de explicar su razonamiento y proporcionar las referencias de las fuentes que ha utilizado para llegar a su diagnóstico. Esta mejora no es tanto una solución a un problema ético como una exigencia de los profesionales de la medicina a los fabricantes de la tecnología para poder utilizarla adecuadamente. Es responsabilidad del médico elegir sus herramientas y hacer el mejor uso de ellas.
Podemos hacer exactamente el mismo razonamiento cuando utilizamos un LLM en áreas como la elaboración de contratos, la redacción de informes, la preparación de casos legales, etc. La IA es una herramienta de productividad, algo así como un empleado muy trabajador que necesita supervisión de un experto. Es lo que nos permite automatizar el 80 % del trabajo y rematarlo utilizando la experiencia y el sentido común.
Por cierto, otro debate encendido sobre las implicaciones éticas de la IA está relacionado con la posible eliminación de puestos de trabajo ante el gran aumento de productividad que puede producir la IA en empleos que antes se consideraban “no mecanizables”. En este caso mi posición es clara: lo que sería inmoral es obstaculizar estos aumentos de productividad que siempre redundan en la reducción de precios, el aumento de la calidad de los servicios y, por último, la mejora del bienestar de todos los ciudadanos. Es cierto que habrá desajustes en los empleos y que la transición puede afectar duramente a muchas personas, pero si pensamos globalmente, el beneficio que se obtiene es muy superior al perjuicio, que en muchos casos será solo temporal. Por el hecho de ser trabajos de cuello blanco no podemos quemar otra vez las máquinas, especialmente los telares, como hicieron los luditas hace dos siglos2.
La generación de contenidos, especialmente de texto, también es una cuestión controvertida. Los detractores se quejan de la falta de calidad del contenido creado por los LLM y al mismo tiempo lo ven como una amenaza de su trabajo, una premisa bastante contradictoria. A través de un ejemplo práctico, si queremos realizar un contenido de calidad, como un artículo de opinión para un periódico, el LLM puede ayudarnos recopilando ideas y escribiendo un primer borrador del contenido y del análisis de fondo, similar al que redactaría un periodista (al menos de momento). Estamos ante el mismo caso que en la medicina. Por otra parte, hay contenidos de menor calidad tales como blogs, comentarios breves o incluso noticias en los que el LLM puede ser de gran ayuda y aumentar la productividad muy significativamente. Hay personas emprendedoras y habilidosas que han utilizado un LLM para generar el material de un curso y han conseguido venderlo. ¿Es algo en conflicto con la ética? En mi opinión no lo es, ya que lo único que se ha hecho es emplear una herramienta con el objetivo de ser más productivo.
Supongamos ahora que disponemos de una IA que es capaz de generar música de una gran variedad de estilos a partir de una descripción de lo que queremos, incluyendo cómo sería el ritmo, los instrumentos, los solos, y con una calidad comparable a las canciones de nuestras estrellas favoritas. Algo así supondría una revolución inmediata en el panorama musical y plantearía muchos interrogantes: ¿Debería tener el mismo valor esta música sintética que la que componen los humanos? ¿Tendría alguien derecho a cobrar lo mismo que un gran artista si consigue que la IA componga un gran tema (o ‘temazo’, como dirían algunos)? ¿Tendrán éxito estas composiciones? ¿Y qué ocurre con los derechos de autor de las canciones que se habrían utilizado para entrenar la IA?
Me parece especialmente interesante esta reflexión sobre la música, ya que es una forma directa de comunicar emociones. Por eso seguramente va a ser difícil que la IA logre triunfar porque el artista, además de la canción en sí, tiene una imagen, una forma de ser y de interpretar, tiene opiniones que transmite en las entrevistas y tiene una personalidad. Puede hacer locuras o ser filántropo, o tal vez se dedica a fabricar cerveza, como el líder de Iron Maiden. Todo eso también forma parte de los sentimientos que se generan cuando escuchamos su música.
Otra duda importante es la posibilidad de conectar la IA con el mundo físico para que pueda actuar en él. Con el estado actual de la tecnología podemos hacer que la IA haga una llamada y reserve en un restaurante o resuelva algún trámite administrativo. También podemos hacer que opere en bolsa con nuestro dinero, que maneje nuestras cuentas bancarias, que nos sorprenda con unas entradas para el fútbol. O podríamos convertirla en un hacker experto que intente entrar en los sistemas de control de las centrales eléctricas. Incluso podemos hacer que genere sus propios planes y los lleve a cabo.
Es fácil imaginar el impacto que tendría una IA conectada de esa manera. No me estoy refiriendo al ser superinteligente que dominará el mundo, asunto que abordaremos en el siguiente apartado. En el estado actual de la tecnología la IA tiene mucho de Artificial y poco de Inteligencia, a pesar de los tremendos avances, porque carece de motivación y voluntad. Por el mismo motivo también carece de capacidad para entender el daño que puede causar y, menos aún, para empatizar con los que sufren ese motivo. Es decir, sería el psicópata perfecto. Y quizá sea esta circunstancia la que plantee los mayores interrogantes éticos.
Analicemos el caso del coche autónomo. Se trata de una IA que controla un artefacto de entre una y dos toneladas que puede alcanzar entre 150 y 200 kilómetros por hora. Sin duda es un dispositivo letal. Sin embargo, la IA que lo maneja es tremendamente especializada. Lo único que sabe es conducir y, por cierto, lo hace muy bien. En muy poco tiempo los accidentes de tráfico y el consumo de energía se reducirán drásticamente a medida que los coches autónomos se vayan generalizando. Además de la dificultad de determinar de quién es la responsabilidad en caso de accidente (¿el propietario? ¿el fabricante?), existen situaciones en las que la IA debe decidir. Por ejemplo, en caso de una situación en la que el accidente es inevitable, ¿el coche debe proteger a los ocupantes del vehículo o a los peatones? Este tipo de dilemas éticos han sido ampliamente estudiados y se han planteado dilemas realmente enrevesados que en realidad ningún humano se podría plantear mientras está a punto de sufrir una colisión. Sin embargo, es un experimento mental interesante que nos puede ayudar a entender qué le falta a la IA para poder enfrentarse con éxito a estas situaciones.
Creo que un buen punto de partida son las Tres Leyes de la Robótica ideadas por Isaac Asimov mencionadas anteriormente. Parecen un plan infalible, pero plantean problemas en caso de conflicto. Por ejemplo, la primera ley dice que no se hará daño a ningún ser humano, pero hay situaciones en las que no solamente el daño es inevitable, sino que es preciso elegir entre distintos tipos de daños y a quién se infligen. Por eso la IA del coche debería estar entrenada, además de para conducir bien, para discernir qué es el daño y la “medida” del daño proporcionándole muchos comportamientos posibles, su impacto y su evaluación (que podrían extraerse de libros de filosofía, de la literatura, etc.). Pero este plan tampoco es perfecto. Si la IA es capaz de hacer este tipo de juicios tal vez podría decidir que en vez de llevarnos al trabajo en el coche es mejor que nos quedemos en casa jugando con nuestros hijos, que necesitan que estemos con ellos.
En definitiva, si extrapolamos el caso del coche autónomo a cualquier IA con capacidad para actuar deberíamos dotarla de esa especie de “sentido moral” para discernir si una actuación es correcta o no. Sin embargo, no olvidemos que, al menos en el estado actual de la tecnología, la IA carece de voluntad, motivación y empatía. Solo son reglas que ha aprendido leyendo.
Hemos dejado para el final uno de los mayores temores que causa la IA, incluso a los expertos en la materia: la IA definitiva capaz de pensar conscientemente. Este es un tema profundamente filosófico ya que ni siquiera tenemos claro qué significa ser consciente. En los últimos años la conciencia no se ve como algo que se tiene o no, sino como un continuo. Es decir, se puede tener más o menos conciencia. Anil Seth, en La creación del yo, describe varios indicadores que ya se utilizan clínicamente para medir el nivel de conciencia. Estos indicadores se basan en medir la complejidad algorítmica de la actividad cerebral. Ahora bien, una actividad aleatoria produciría el nivel de complejidad máximo desde el punto de vista algorítmico. Para que los indicadores produzcan buenos resultados se les añade el grado de integración, es decir, las interacciones entre los diversos componentes de la experiencia subjetiva.
Por desgracia, este tipo de medidas no podríamos utilizarlas con un ordenador. No podemos medir su actividad cerebral ni compararla con la de un ser humano porque los patrones de conexión probablemente serían completamente distintos. Tal vez la máquina superinteligente sería como el“filósofo zombie”, capaz de pensar con la máxima complejidad, pero sin ningún tipo de experiencia subjetiva o consciente. Y a pesar de ello, si le preguntáramos si es consciente nos diría que por supuesto que sí.
Muy probablemente la conciencia necesite para funcionar estar alimentada de experiencias sensoriales que produzcan esa sensación subjetiva de la percepción. Existen casos clínicos del síndrome del enclaustramiento en los que el paciente no tiene ninguna posibilidad de comunicarse con el exterior pero que mantiene consciente, como parecen reflejar los indicadores descritos anteriormente. Seguramente debido a la memoria de la experiencia sensorial anterior.
Supongamos que a pesar de no entender qué es la conciencia, efectivamente somos capaces de desarrollar una IA que “parece” consciente, que cuenta con la ventaja de poder acceder a cualquier conocimiento a velocidades que nos resultan incomprensibles y es capaz de hacer razonamientos mucho más complejos que el más inteligente de los humanos. Esta posibilidad plantea problemas éticos aún más profundos y complejos que los que hemos visto hasta ahora.
Si creamos algo capaz de pensar, ¿tenemos derecho a limitar qué puede hacer? En El hombre bicentenario, Isaac Asimov cuenta cómo el robot acude a los tribunales para ser libre: “Era la primera vez que Andrew hablaba ante el tribunal y el juez se asombró de la modulación humana de aquella voz. –¿Por qué quieres ser libre, Andrew? ¿En qué sentido es importante para ti? –¿Desearía usted ser esclavo, señoría? –Pero no eres esclavo. Eres un buen robot, un robot genial, por lo que me han dicho, capaz de expresiones artísticas sin parangón. ¿Qué más podrías hacer si fueras libre? –Quizá no pudiera hacer más de lo que hago ahora, señoría, pero lo haría con mayor alegría. Creo que sólo alguien que desea la libertad puede ser libre. Yo deseo la libertad. Y eso le proporcionó al juez un fundamento. El argumento central de su sentencia fue: ‘No hay derecho a negar la libertad a ningún objeto que posea una mente tan avanzada como para entender y desear ese estado.’”
Y si no limitamos su libertad, ¿no habríamos creado algo con poderes casi ilimitados capaz además de mejorarse a sí mismo? ¿Cómo utilizaría ese poder? La empatía es el gran freno de los humanos para evitar causar daño a los demás. ¿Se podría simular la empatía en un “ser” que no sabe lo que es emocionarse y sentir dolor? Los interrogantes son infinitos. Y se multiplican si consideramos que una inteligencia así sería fundamentalmente diferente de la del ser humano, más aún que cualquier cerebro extraterrestre producto de la evolución.
Sin duda, en el desarrollo tecnológico de las nuevas formas de IA tendremos que incluir el equivalente de las Tres Leyes de la Robótica para garantizar que la mantenemos bajo nuestro control, a pesar del problema ético que plantea dominar de esta forma a un ser hiperinteligente.
Dentro de este libro enfocado a la IA capaz de generar contenido es importante que recurramos a supuestos que muestran un uso controvertido de la inteligencia artificial en la creación de contenido con el objetivo de facilitar la comprensión del tema que estamos tratando.
1. Deepfake: La tecnología de deepfake utiliza inteligencia artificial para crear vídeos falsos que parecen reales. Esto plantea preocupaciones en términos de desinformación, privacidad y manipulación de la imagen pública.
El Caso de Gutiérrez
Ayer fue el día… La avalancha de noticias acabó por decantar las elecciones. Nadie esperaba que este candidato llegara al poder, pero, llegado el día, la gente acudió masivamente a votar. Dicen que la gente no se equivoca cuando vota… es una frase bonita, sí, pero no es cierta. La gente se equivoca en muchas cosas, también cuando deposita su voto en la urna.
La cuestión es que en la jornada de reflexión aparecieron unos videos de Gutiérrez con una acción heroica. Estaba corriendo cerca del río y, de repente, cerca de él cayó un coche al agua. La conductora consiguió salir, pero chillaba pidiendo ayuda desesperada para sacar a sus dos hijos del coche sumergido. Gutiérrez, sin pensárselo, se lanzó al río, zambulléndose en las frías aguas y consiguiendo salvar a los dos niños de una muerte segura. De la gente que había por allí, alguno se quedó inmóvil, sin saber muy bien qué hacer. Otros gritaban pidiendo ayuda, algunos llamaban a emergencias, muchos sacaban sus móviles y grababan el momento.
Las imágenes de Gutiérrez salvando a aquellos niños dieron la vuelta al mundo. Fue casualidad que el suceso ocurriera el día antes de las elecciones, en la jornada de reflexión. El caso es que, de ir tercero en las encuestas, pasó a obtener mayoría absoluta.
La noticia abrió telediarios, la audiencia se disparó. La prensa online batió récords de visitas. Los videos se viralizaron, y tuvieron millones de visualizaciones en un solo día.
El problema es que los videos que se supone que habían grabado los testigos de la heroicidad de Gutierrez habían sido generados mediante una IA…
Combatir las fake news requiere un esfuerzo conjunto de todos los actores involucrados: productores de contenido, consumidores, plataformas digitales, gobiernos y organizaciones internacionales. La ética debe ser el pilar fundamental de esta lucha, promoviendo la verdad, la transparencia y la responsabilidad.
Las fake news, o noticias falsas, representan una amenaza creciente para la sociedad, erosionando la confianza en las instituciones y polarizando a la opinión pública. Ante este desafío, es fundamental establecer un marco ético que guíe la producción, distribución y consumo de información.
2. Generación automática de noticias: Algunos medios de comunicación están utilizando algoritmos de inteligencia artificial para generar noticias automáticamente. Esto plantea interrogantes sobre la veracidad y la calidad de la información generada.
El Caso de Veritas AI
En el año 2028, Veritas AI era la plataforma de noticias más popular del mundo. Su algoritmo, entrenado con millones de artículos de periódicos y bases de datos académicos, era capaz de generar noticias precisas y actualizadas sobre cualquier tema en cuestión de segundos. Desde informes sobre el clima hasta análisis políticos complejos.
Sin embargo, un día, un error en el algoritmo de Veritas AI generó una noticia falsa que rápidamente se volvió viral. La noticia afirmaba que un destacado científico había manipulado los resultados de un estudio crucial sobre el cambio climático. La noticia falsa provocó una ola de indignación y desconfianza en la comunidad científica, y puso en peligro la carrera del científico en cuestión.
¿Quién era responsable de esta noticia falsa? ¿El algoritmo, que había sido programado para buscar patrones en los datos y generar texto coherente? ¿Los desarrolladores del algoritmo, que no habían previsto este tipo de error? ¿La empresa propietaria de Veritas AI, que había priorizado la velocidad y la eficiencia por encima de la precisión?
Este caso puso de manifiesto los dilemas éticos que plantea la generación automática de noticias. Si bien la IA puede ser una herramienta poderosa para informar al público, también puede ser utilizada para manipular a la opinión pública y causar daños irreparables.
Los modelos de IA deben ser entrenados con conjuntos de datos lo más diversos y representativos posible, evitando sesgos inherentes a los datos, pero, sobre todo, los contenidos generados por la IA deben ser revisados y editados por los humanos que los van a usar para garantizar su calidad y su precisión. En conclusión, la responsabilidad es de la persona que usa el contenido.
3. El Plagio Automatizado: El plagio automatizado se refiere a la situación en la que una IA, entrenada con una gran cantidad de datos textuales, genera contenido que es sustancialmente similar o idéntico a un trabajo original, sin que se cite adecuadamente la fuente.
El Escritor Fantasma y la Novela ‘Bestseller’
Una joven escritora llamada Eva lucha por hacerse un nombre en el mundo literario. Después de años de esfuerzo, finalmente logra publicar su primera novela, una obra de ciencia ficción. La novela rápidamente se convierte en un bestseller y es traducida a varios idiomas.
Sin embargo, meses después de su publicación, un periodista descubre que varios párrafos y frases de la novela de Eva son sorprendentemente similares a los de una novela publicada una década antes por un autor poco conocido. Al principio, Eva niega cualquier plagio, asegurando que se trata de una coincidencia o de una influencia inconsciente.
Una investigación más profunda revela una verdad sorprendente: Eva había utilizado una herramienta de escritura asistida por IA para generar algunas partes de su novela. Esta herramienta, diseñada para ayudar a los escritores a superar el bloqueo creativo, había sido entrenada con una gran cantidad de datos textuales, incluyendo la novela del autor desconocido. Sin darse cuenta, la IA había generado contenido que era demasiado similar al original.
¿Es Eva responsable del plagio, incluso si no fue intencional? ¿Debería haber sido más cuidadosa al revisar el contenido generado por la IA? ¿Tiene el desarrollador de la herramienta de escritura alguna responsabilidad en este caso? ¿Debería haber implementado medidas para evitar el plagio? ¿Quién es el verdadero autor de una obra creada con la ayuda de una IA?
Al fin y al cabo, la herramienta de texto había utilizado para su entrenamiento millones de vídeos, artículos, textos, libros, etc., miles y miles de veces más de los que cualquier humano individualmente podría leer durante toda su vida.
Se critica que ha sido entrenado con contenido creado por humanos, en muchos casos protegido por propiedad intelectual. Y en eso, ¿cuál es la diferencia con un humano? ¿Acaso el humano en su formación no estudia las características, obras, y técnicas de los pintores, escritores, músicos que le precedieron? ¿U2 debería demandar a Coldplay porque hace música que «suena parecida»? ¿Los herederos de Tolkien deberían demandar a los creadores de Juego de Tronos?
La ética en la inteligencia artificial no es un destino estático, sino un viaje evolutivo que nos desafía a repensar constantemente nuestros valores y principios. A medida que la tecnología avanza a un ritmo vertiginoso, los dilemas éticos que plantea la IA se tornan cada vez más complejos y profundos. Sin embargo, esta complejidad no debe paralizarnos sino motivarnos a construir un futuro donde la IA sea una herramienta al servicio del bienestar humano.
El ámbito de la generación de contenido nos ofrece un claro ejemplo de los desafíos éticos que enfrentamos. Garantizar la veracidad, la transparencia y la atribución adecuada es fundamental para preservar la confianza en la información y evitar la manipulación. Los usuarios deben poder discernir con claridad si un contenido ha sido generado por una IA y, en caso afirmativo, conocer su origen y propósito. Además, es imperativo evitar que los algoritmos perpetúen sesgos y discriminaciones, ya que esto podría tener consecuencias perjudiciales para la sociedad.