1 d. C. (después de ChatGPT) - Gregorio González Alcaide - E-Book

1 d. C. (después de ChatGPT) E-Book

Gregorio González Alcaide

0,0

Beschreibung

En muy poco tiempo, el vertiginoso desarrollo de la inteligencia artificial generativa ha transformado radicalmente las formas a través de las cuales el alumnado accede a la información y aborda su proceso de aprendizaje; por ello, es necesario dar una respuesta inmediata y proactiva por parte de las instituciones de educación superior y, en particular, del profesorado, que debe asumir un papel protagonista en lo que puede ser calificado como el inicio de una nueva era. Así pues, con el fin de que pueda integrarla en su práctica docente, se recopilan y sintetizan las directrices de las principales universidades del mundo y las evidencias científicas existentes, así como las pautas de las editoriales científicas de referencia a nivel internacional en relación con el uso de esta tecnología en las actividades de investigación. Se incluye un modelo para la alfabetización digital del profesorado y una unidad didáctica dirigida al alumnado para promover el uso responsable y transparente de la inteligencia artificial generativa con el objetivo de preservar la integridad académica y obtener el máximo rendimiento de estas herramientas.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 330

Veröffentlichungsjahr: 2024

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Esta publicación no puede ser reproducida, ni total ni parcialmente, ni registrada en, o transmitida por, un sistema de recuperación de información, en ninguna forma ni por ningún medio, ya sea fotomecánico, fotoquímico, electrónico, por fotocopia o cualquier otro, sin el permiso previo de la editorial.

© Del texto: el autor, 2024

© De esta edición: Publicacions de la Universitat de València, 2024

puv.uv.es

[email protected]

Coordinación editorial: Amparo Jesús-Maria Romero

Corrección y maquetación: Letras y Píxeles, S. L.

Diseño de la cubierta: Celso Hernández de la Figuera

ISBN (papel): 978-84-1118-425-0

ISBN (ePub): 978-84-1118-426-7

ISBN (PDF): 978-84-1118-427-4

Edición digital

Nadie recorta una pieza de un vestido nuevo para ponérsela a un vestido viejo; porque, si lo hace, el nuevo se rompe y al viejo no le cuadra la pieza del nuevo. Nadie echa vino nuevo en odres viejos, porque, si lo hace, el vino nuevo reventará los odres y se derramará, y tanto el vino como los odres se perderán. Por eso hay que echar el vino nuevo en odres nuevos.

LUCAS 5:36-39

Nota: Todos los contenidos recogidos en este libro han sido concebidos y desarrollados sin intervención de la inteligencia artificial.

Índice

Introducción: la inteligencia artificial generativa y la era del posplagio

Capítulo 1. Marco conceptual y normativo: la inteligencia artificial generativa en el seno de la integridad académica e investigadora

Capítulo 2. La utilización de la inteligencia artificial generativa en la práctica docente: ¿vino nuevo en odres viejos?

Capítulo 3. Uso de la inteligencia artificial generativa por parte del profesorado: de los primeros pasos a la alfabetización en el uso de estas herramientas

Capítulo 4. La inteligencia artificial generativa y las actividades de investigación

Capítulo 5. Unidad didáctica dirigida al alumnado: formación y uso responsable de la inteligencia artificial generativa

Conclusiones

Bibliografía

Anexos

Introducción: la inteligencia artificial generativa y la era del posplagio

CHATGPT: ¿UN HITO QUE MARCA EL INICIO DE UNA NUEVA ERA?

El lanzamiento en noviembre de 2022 por parte de OpenAI del robot conversacional de inteligencia artificial ChatGPT generó un profundo impacto general, particularmente en la comunidad educativa, por la gran capacidad de esta herramienta para ofrecer respuestas detalladas y perfectamente articuladas lingüística y semánticamente a las preguntas que se le planteaban en lenguaje natural, crear textos originales y coherentes similares a los que podría escribir un humano como respuesta a una petición de información sobre cualquier tema, e incluso la posibilidad de generar código que podía ser utilizado para programación, entre otras funcionalidades (Mills et al., 2023).

Al hilo del surgimiento de esta herramienta, Bill Gates comparó las posibilidades ofrecidas por la inteligencia artificial con el desarrollo de los sistemas operativos, las interfaces gráficas de usuario en los ordenadores personales y la democratización del acceso a la informática que se inició en la década de 1980 (Gates, 2023). De forma específica, en relación con los chatbots como ChatGPT que permiten la generación automática de textos, Bill Gates destacó que constituye un aspecto revolucionario, al mismo nivel que el desarrollo de internet o la telefonía móvil inteligente, que cambiará la forma en la que las personas aprenden, trabajan, disfrutan del ocio o se comunican entre sí (Gates, 2023).

Frente a esta visión optimista, otras voces han alertado también acerca de los peligros de la inteligencia artificial. Incluso los propios responsables y creadores de ChatGPT firmaron la sucinta declaración Statement on AI risk (Declaración sobre los riesgos de la inteligencia artificial), impulsada por el Center for AI Safety, organización no gubernamental que investiga de forma específica el desarrollo y la implantación segura, técnica y éticamente, de la inteligencia artificial, que ha alertado de que esta tecnología podría llevar a la extinción de la humanidad y de que limitar el riesgo que esta puede suponer debe erigirse en una prioridad mundial, al mismo nivel que hacer frente a las pandemias o a la amenaza nuclear (Center for ai Safety, 2023). También otras organizaciones, como el Future of Life Institute, han focalizado su atención, junto a otras áreas, en los riesgos de la inteligencia artificial, con declaraciones como «Pause giant AI experiments: An open letter» («Pausa en los experimentos gigantes de inteligencia artificial: Carta abierta»), que llama la atención acerca de la relevancia de planificar y gestionar cuidadosamente y con los recursos adecuados el desarrollo de esta tecnología (Future of Life Institute, 2023), una preocupación manifestada también a escala gubernativa por parte de muchos países e instituciones de educación superior. En relación con este último ámbito, Lim et al. (2023) destacan que la inteligencia artificial generativa ha tomado el mundo por asalto, para hacer referencia a la excepcional popularidad que ha alcanzado en un corto período de tiempo, si bien, tal y como señalan los autores de este trabajo, esa notoriedad bascula entre dos posiciones extremas: la de aquellos que ven esta tecnología desde un punto de vista pesimista, como el germen de la destrucción del sistema educativo, y la de quienes la consideran el inicio de una nueva era mucho más positiva, ya que favorecerá una mayor accesibilidad y la mejora de la calidad de la enseñanza. Lim et al. (2023) enmarcan ambos planteamientos en el contexto de cuatro paradojas, ya que la inteligencia artificial generativa es considerada amiga pero enemiga (ya que ha mostrado una gran capacidad para ofrecer respuestas similares a las humanas y su potencial para contribuir al desarrollo de numerosas tareas, pero también puede generar contenidos erróneos o sesgados, entre otras carencias); es capaz pero dependiente (puede ofrecer respuestas rápidas y adecuadas sobre cualquier tema, pero están fuertemente condicionadas por la adecuación de las entradas que recibe –las peticiones de información o prompts–, por la base de conocimiento que utiliza y la información de la que dispone o por el entrenamiento que ha recibido); la inteligencia artificial puede ser accesible pero restrictiva (aunque estas herramientas tienen la capacidad de facilitar el acceso a la información y favorecer la democratización del conocimiento –por ejemplo, reduciendo las barreras lingüísticas o ayudando a los estudiantes con discapacidades–, pueden erigirse también en una barrera adicional o favorecer la discriminación, si se convierten en aplicaciones de pago o no son accesibles para todos los colectivos en las mismas condiciones); y, por último, puede hacerse popular pese a estar prohibida (como así parece haber sucedido, ya que las prohibiciones o limitaciones iniciales que se establecieron en relación con el uso de ChatGPT parecen haber operado en sentido contrario, al incrementar el interés de los estudiantes por esta herramienta y como reacción psicológica frente a una prohibición).

Más allá de la grandilocuencia de las afirmaciones recogidas y del posicionamiento en uno u otro sentido, como sucede con cualquier otra tecnología, a cada rasgo positivo de las aplicaciones de inteligencia artificial generativa se le puede oponer otro negativo (figura 1), por lo que la clave para que se convierta en una herramienta provechosa alineada con los objetivos del aprendizaje del alumnado es realizar una gestión adecuada de su utilización, incidiendo en los aspectos positivos y tratando de minimizar los negativos.

FIGURA 1Visiones contrapuestas asociadas al uso de la inteligencia artificial generativa

El lanzamiento de ChatGPT y otras aplicaciones similares constituye un paso más en el proceso de desarrollo de la inteligencia artificial y en la historia de los chatbots, que se remonta a la década de 1960 (Rajaraman, 2023), aunque parece haberse acelerado en los últimos meses por el salto cualitativo en sus capacidades, la popularidad y rápida extensión de su uso, que ha sido mucho más acelerado que otros fenómenos recientes como las redes sociales (Graners, 2023), y por la integración de esta tecnología en numerosas aplicaciones y en los procesos de búsqueda de información a través de internet (Rudolph et al., 2023a). El estadio de desarrollo alcanzado por la inteligencia artificial, particularmente por los chatbots generadores de contenido, exige una profunda y general reflexión acerca de los beneficios que puede aportar esta tecnología y sus riesgos (Conn, 2015), desde el individual, encarnado a escala educativa por el profesorado, que debe planificar y gestionar su práctica docente diaria y las actividades de evaluación que realiza en este nuevo contexto, pasando por el institucional, que debería ofrecer un marco de referencia claro y preciso para todos los agentes involucrados en el proceso educativo, hasta llegar a los responsables gubernativos de las políticas educativas nacionales o los organismos

FIGURA 2Acciones que se deben acometer a diferentes niveles en relación con la regulación y uso de la inteligencia artificial generativa supranacionales, que deberían igualmente establecer un marco legislativo y fijar unos principios y valores universales que guíen el desarrollo de esta tecnología (figura 2).

IMPACTO DE LA INTELIGENCIA ARTIFICIAL GENERATIVA EN EL ÁMBITO EDUCATIVO: ENTRE INCERTIDUMBRES Y REALIDADES

Las excepcionales capacidades de ChatGPT unidas a la rápida extensión de su uso dejaron en estado de shock a la comunidad educativa, que manifestó su preocupación por la utilización inadecuada de esta herramienta por parte del alumnado. En este sentido, la reacción inicial de algunas universidades y responsables de las políticas educativas, tras comprobar las posibilidades de ChatGPT, fue prohibir su uso, con el argumento de que no era posible controlar la utilización de este programa u otros similares basados en la inteligencia artificial por parte de los estudiantes, y que su uso implicaba que no fuesen los autores de los trabajos y de los contenidos presentados, por lo que debía ser considerado una mala praxis y un incumplimiento de los principios de la integridad académica. Así, por ejemplo, el Departamento de Educación de la ciudad de Nueva York restringió en enero de 2023 el acceso a ChatGPT desde las escuelas públicas (Rosenblatt, 2023); o la Universidad de Hong Kong notificó a todos los estudiantes y profesorado que el uso de ChatGPT u otras herramientas similares estaba prohibido en todos los procesos de evaluación de la Universidad, considerándose plagio cualquier infracción al respecto (Holliday, 2023).

Una vez superada la impresión inicial, parece aceptarse cada vez más la idea de que es necesario integrar esta herramienta, y con carácter más general esta tecnología, en las aulas, enseñando a los estudiantes a utilizar la inteligencia artificial generativa para apoyar su aprendizaje y su futuro desempeño profesional, permitiendo su uso en diferentes actividades y tareas, e incluso planteando cambios más profundos, tal y como defienden diferentes voces que han alertado acerca de que en el actual estadio de desarrollo de la inteligencia artificial, y con los avances que están por venir en los próximos años, la concepción actual de la enseñanza superior debe cambiar (Adiguzel et al., 2023; Bahroun et al., 2023; Birenbaum, 2023; Yu y Guo, 2023). En este sentido, autores como Graners (2023) han afirmado de forma contundente que «ChatGPT y el resto de las inteligencias lo cambiarán todo», lo que no debe suponer de entrada ningún trauma, ya que, como este mismo autor destaca, esto ya ha pasado varias veces desde la década de 1980, por ejemplo, con la informatización o la llegada de internet. La revisión de Lo (2023a) destacó, a los pocos meses del lanzamiento de ChatGPT, la existencia de un consenso en la literatura científica en torno a dos acciones inmediatas que se debían acometer, lo que refleja ese cambio de percepción tras la impresión inicial:

• Actualizar los métodos de evaluación y las políticas institucionales de las universidades.

• La formación del profesorado y de los estudiantes para responder al impacto causado por esta herramienta.

Sarah Elaine Eaton (2021), ya antes del lanzamiento de ChatGPT, alertó acerca del profundo impacto que tendrá esta tecnología en el ámbito educativo, y destacó seis rasgos novedosos que serán propios de la escritura académica motivados por el desarrollo de la inteligencia artificial, en un nuevo contexto que ha definido como era del posplagio:

1. La escritura híbrida humano-inteligencia artificial se convertirá en algo habitual.

La escritura híbrida, creada conjuntamente por los humanos y la inteligencia artificial, es algo cada vez más frecuente. Pronto será la norma. Intentar determinar dónde acaba el humano y dónde empieza la inteligencia artificial es inútil.

2. Aumentará la creatividad humana.

La inteligencia artificial no debe ser vista como una amenaza, sino como un instrumento que puede favorecer la creatividad. Los humanos pueden inspirarse e inspirar a otros. Los humanos pueden incluso ser inspirados por la inteligencia artificial, pero nuestra capacidad de imaginar, inspirar y crear sigue siendo ilimitada e inagotable.

3. Desaparecerán las barreras lingüísticas.

La lengua materna de cada uno empezará a importar cada vez menos, a medida que se disponga de herramientas para que los humanos se entiendan en los diferentes idiomas.

4. Los humanos podrán ceder el control, pero no la responsabilidad.

Los humanos podrán mantener el control sobre lo que escriben, pero también podrán cederlo a herramientas de inteligencia artificial, si así lo desean. Sin embargo, aunque los humanos cedan el control, no pueden renunciar a la responsabilidad de lo que escriben. Las personas pueden –y deben– seguir siendo responsables de la comprobación de los hechos, los procedimientos de verificación y de la veracidad de la información que transmiten. También serán responsables de cómo se desarrollan las herramientas de inteligencia artificial.

5. La atribución seguirá siendo importante.

Siempre ha sido y seguirá siendo deseable apreciar, admirar y respetar a nuestros maestros, mentores y guías. Los seres humanos aprenden en comunidad, incluso cuando aprenden solos. Citar, referenciar y atribuir seguirán siendo habilidades importantes.

6. Las definiciones históricas de plagio ya no se podrán aplicar.

Las definiciones de plagio se deben redefinir y adaptar dada la evolución propiciada por la inteligencia artificial.

El corolario de todo ello, según defiende esta autora, es que las universidades deben adaptarse a este nuevo contexto y formar a los estudiantes para usar la inteligencia artificial como una herramienta que se integrará y formará parte de su trabajo cotidiano, para apoyarlo y facilitarlo, no para delegar sin más en ella las tareas que hay que realizar (Eaton, 2021).

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), recogiendo las inquietudes de las instituciones de educación superior, ha sugerido las siguientes acciones en relación con el desarrollo de la inteligencia artificial y el impacto propiciado por herramientas como ChatGPT en el ámbito educativo (Sabzalieva y Valentini, 2023: 13-14):

Crear oportunidades para que el profesorado, el personal, las y los estudiantes y otras partes interesadas debatan el impacto de ChatGPT en las instituciones de educación superior y co-construyan estrategias para adaptarse en la adopción de la inteligencia artificial […]

La introducción de orientaciones claras para estudiantes y profesores/ras sobre cómo y cuándo puede utilizarse ChatGPT (y cuándo no). Estas directrices deben negociarse con las y los estudiantes y los profesores y las profesoras, no imponérselas.

Conectar el uso de ChatGPT con los resultados de aprendizaje del curso. Esto ayuda a las y los estudiantes a entender cómo ChatGPT puede apoyar su aprendizaje y qué expectativas existen para ellos.

Revisar todas las formas de valoración y evaluación para garantizar que cada elemento se ajuste a su finalidad. Esta revisión puede llevar a sustituir los exámenes u otras evaluaciones por evaluaciones presenciales o a modificar los tipos de preguntas o los formatos de evaluación que se utilizan.

Revisar y actualizar las políticas relativas a la integridad académica en relación con ChatGPT y otras herramientas de inteligencia artificial.

Formar a profesores, investigadores y estudiantes para que mejoren las consultas que plantean a ChatGPT. Como han señalado los investigadores, ChatGPT es más útil cuando las entradas que se le proporcionan están cuidadosamente desarrolladas.

LA RESPUESTA DE LA ACADEMIA: DELSHOCKINICIAL A LA GENERACIÓN DE EVIDENCIAS CIENTÍFICAS, LA INTEGRACIÓN Y REGULACIÓN DE SU USO

El lanzamiento de ChatGPT ha llevado aparejada una excepcional eclosión de la literatura científica, reflejo del gran impacto e interés que ha provocado esta tecnología entre la comunidad académica e investigadora. Así, por ejemplo, transcurrido el primer año desde que está disponible esta aplicación, la base de datos Scopus recoge más de cuatro mil documentos únicamente sobre ChatGPT y más de dieciocho mil referidos a la inteligencia artificial generativa, de los que casi el 40 % han sido publicados en 2023. Nos encontraríamos así frente a una explosión de la información científica como respuesta a un fenómeno disruptivo que ha causado un profundo impacto que, salvando las distancias y el objeto de estudio, sería comparable al causado por el covid-19 (Aviv-Reuven y Rosenfeld, 2021; Coccia, 2021), con la inquietante diferencia de que pese a los estragos provocados por la pandemia, nadie la consideró como una amenaza potencial para la continuidad de la vida humana sobre la Tierra, a diferencia del caso de la inteligencia artificial (González Alcaide, 2024).

Muchas de las contribuciones iniciales, en forma de ensayos breves o editoriales, destacaron las ventajas potenciales que podía aportar la utilización de la inteligencia artificial generativa, con ChatGPT como principal referente, en el ámbito de la enseñanza superior, subrayando que podía resultar beneficiosa tanto para los estudiantes (favoreciendo rasgos como la motivación, el compromiso o la interacción, así como la personalización de las experiencias del aprendizaje y los resultados positivos) como para los profesores (de cara a la creación de contenidos, la mejora de las habilidades docentes, la creatividad o la autorreflexión, entre otros aspectos) (Adiguzel et al., 2023; Kasneci et al., 2023). Tampoco faltaron voces críticas que cuestionaron el uso y el valor de estas herramientas en el ámbito educativo, hasta el punto de caracterizar su uso como un plagio automatizado, conminando a limitar su utilización (Van Rooij, 2023).

El análisis de las revisiones bibliográficas centradas en el uso de la inteligencia artificial generativa en el ámbito educativo, y publicadas a lo largo del primer año de disponibilidad y uso extendido de esta tecnología (anexo 1), permite disponer de una visión global acerca de cuáles son los principales aspectos que han sido objeto de atención por parte de la investigación, las evidencias existentes sobre el impacto que puede tener en los procesos de enseñanza y aprendizaje y cómo gestionar esta nueva realidad.

La preocupación acerca del impacto que puede tener el uso de los chatbots en los resultados del aprendizaje del alumnado y el rol que debe desempeñar el profesorado en relación con esta tecnología constituyeron algunos de los primeros problemas objeto de atención en las revisiones de la literatura, que han estado presentes, en mayor o menor medida, en la práctica totalidad de trabajos identificados. Pese a que las evidencias disponibles aún son limitadas, diferentes revisiones han señalado que el uso de las aplicaciones de inteligencia artificial generativa parece tener una incidencia positiva en el aprendizaje del alumnado (Al Shloul et al., 2024; Alemdag, 2023; Mai et al., 2024; Montenegro-Rueda et al., 2023; Wu y Yu, 2024; Zhang et al., 2023). La revisión sistemática de Gentile et al., publicada a principios de 2023, alertó de que no existía aún una conciencia clara sobre la urgencia de abordar la situación propiciada por el desarrollo de la inteligencia artificial en el ámbito educativo, destacando que se debería reformular con detalle el rol desempeñado por el profesorado, hasta el punto de equiparar la situación con la necesidad de acometer un cambio de paradigma educativo, similar al planteado por Kuhn en el ámbito científico. En esta misma línea, otras revisiones posteriores también han incidido en la necesidad de acometer una reforma educativa (Yu y Guo, 2023), en el carácter disruptivo (Birenbaum, 2023) o transformador y revolucionario (Adiguzel et al., 2023; Bahroun et al., 2023) de la inteligencia artificial generativa para el ámbito educativo.

Muchas revisiones bibliográficas, como las de Adiguzel et al. (2023), Alqahtani et al. (2023), Karakose (2023) o Imran y Almusharraf (2023), se han centrado en ofrecer una visión global de carácter teórico acerca de las oportunidades y los retos que plantea la inteligencia artificial generativa en el ámbito educativo, incidiendo especialmente en las limitaciones de esta tecnología y en la relevancia de promover un uso ético y responsable de esta. De forma más específica, la revisión de Lo (2023a) está enfocada en destacar cómo puede utilizarse ChatGPT para la mejora de la enseñanza y el aprendizaje, y otras revisiones se centran en destacar que esta tecnología puede acrecentar los desequilibrios, las desigualdades o la discriminación de determinados colectivos (Farrelly y Baker, 2023; Grassini, 2023; Mhlanga, 2023).

Con un enfoque más centrado en la tecnología, la revisión de Yan et al. (2024) analiza la literatura publicada entre 2017 y 2022 en relación con la utilización de los grandes modelos de lenguaje para automatizar tareas en el ámbito educativo, lo que sirve para ilustrar de forma precisa las posibilidades tecnológicas y las limitaciones que se han puesto de manifiesto tras el lanzamiento de ChatGPT.

Dempere et al. (2023), por su parte, enfocaron su revisión en el análisis de las evidencias científicas existentes en relación con el impacto futuro que puede causar la inteligencia artificial generativa en las instituciones de educación superior y entre el alumnado, particularmente si se extiende y generaliza su uso, por ejemplo, en relación con aspectos como la sustitución del profesorado o la alfabetización y desempeño de los estudiantes. Finalmente, Kim (2023) aportó un enfoque interesante contraponiendo los rasgos propios de las búsquedas de información convencionales con el nuevo contexto interactivo, contextual y generativo de los chatbots.

Además de los documentos citados, que se comentan de forma detallada en el capítulo segundo, otras revisiones se han centrado en el análisis de las evidencias recogidas en la literatura científica relacionadas con las aplicaciones, los retos, las limitaciones y los problemas éticos que plantea la inteligencia artificial generativa para la educación en determinadas disciplinas. Así, por ejemplo, el estudio de Bahroun et al. (2023), además de un apartado que aporta una visión general, analizó la incidencia que ha tenido la inteligencia artificial generativa en las áreas de informática, ingeniería, medicina, enfermería y comunicación; Ray (2023) describió los antecedentes, la evolución de la tecnología que ha dado lugar a ChatGPT y cuáles son las principales aplicaciones y los retos que plantea en las áreas de sanidad y medicina, negocios y finanzas, derecho y servicios jurídicos, escritura creativa y generación de contenidos, educación y formación, programación y depuración de código, medios de comunicación y entretenimiento, ventas y marketing y banca; Sohail et al. (2023) presentaron una revisión que caracteriza el desarrollo que ha tenido la investigación relacionada con ChatGPT en sanidad, marketing y servicios financieros, ingeniería de software, redacción académica y científica, investigación y educación y ciencias medioambientales; y Sallam (2023) efectuó una detallada revisión sistemática del uso de ChatGPT en la educación, la investigación y la práctica clínica en el ámbito de las ciencias de la salud.

De forma paralela al interés despertado en la literatura científica, muchas universidades han explicitado las políticas que debe seguir toda la comunidad académica en relación con el uso de la inteligencia artificial generativa, en forma de declaraciones, reformulando o remitiendo a sus códigos éticos o de conducta, o estableciendo pautas y recomendaciones recogidas en guías o tutoriales formativos dirigidos tanto al alumnado como al profesorado. Estas iniciativas, que se analizan detalladamente en el primer capítulo, deberían extenderse y ser impulsadas por todas las instituciones de educación superior, ya que constituyen un marco de referencia ineludible para guiar el uso de las herramientas de inteligencia artificial generativa en la práctica docente y las actividades de investigación. Tanto la amplia literatura científica ya disponible como el carácter cada vez más extendido de las normativas y directrices que tratan de regular su uso constituyen la respuesta de las instituciones académicas y de investigación a la eclosión de la inteligencia artificial generativa, y deben servir como marco de referencia para el profesorado y el alumnado en el desempeño de las funciones docentes, el aprendizaje y la investigación, tal y como se analiza detalladamente en los capítulos siguientes.

1

Marco conceptual y normativo: la inteligencia artificial generativa en el seno de la integridad académica e investigadora

LOS CHATBOTS Y LA TECNOLOGÍAGENERATIVE PRETRAINED TRANSFORMER

El desarrollo de los robots conversacionales o chatbots (término que procede de la voz inglesa chat, «conversar», y de -bot, aféresis de robot) capaces de interactuar y mantener conversaciones imitando a un humano se remonta a la década de 1960, si bien su uso se extendió algunas décadas después, especialmente con el desarrollo de internet, para atender de forma rápida las dudas sencillas, la información de carácter general y recurrente requerida por los clientes o los usuarios de un servicio, o para guiar en la realización de determinados procesos, como las compras y los pagos en línea, constituyendo una tecnología que ha ido perfeccionándose y adquiriendo una complejidad creciente, hasta el punto de que en la actualidad existen aplicaciones que permiten generar todo tipo de contenidos y puede resultar complicado o imposible discernir si nos encontramos frente a un humano o un chatbot (Rajaraman, 2023). El estudio de Casheekar et al. (2024) clasifica los chatbots en las siguientes categorías:

•Chatbots orientados a tareas. Están diseñados para realizar tareas específicas con una interacción limitada, predefinida y un dominio de conocimientos relacionados con el ámbito específico en el que desarrollan su función. Dentro de esta categoría es posible distinguir los asistentes personales y los orientados a la atención a los usuarios o clientes interesados por un producto o servicio.

•Chatbots sociales. Están concebidos para entablar conversaciones con los usuarios que tratan de emular la personalidad humana o las emociones o preferencias definidas por estos, con dos propósitos: entretenimiento y apoyo emocional.

•Chatbots basados en el conocimiento. Están ideados para ofrecer a los usuarios información objetiva y consistente procedente de fuentes de índole diversa (como bases de datos, repositorios o webs específicas de internet) que emplean técnicas de comprensión y generación de contenidos en lenguaje natural que interpreten y generen respuestas pertinentes a las peticiones de información de los usuarios. Dentro de esta categoría es posible distinguir los chatbots informativos, que tratan de responder a preguntas proporcionando información actualizada, y los chatbots educativos, que priman el carácter interactivo y adaptativo para favorecer el aprendizaje.

•Chatbots híbridos. Son capaces de abordar diferentes facetas o combinar múltiples tareas para atender las necesidades o peticiones de los usuarios en escenarios complejos. Dentro de esta categoría es posible distinguir entre los agentes de inteligencia artificial conversacional, que ofrecen a los usuarios servicios personalizados y proactivos, y los asistentes virtuales, que proporcionan una asistencia integral sobre cualquier faceta.

Tal y como se recoge en la figura 3, chatbots como ChatGPT, desarrollado por OpenAI, u otros, como Bard de Google o Bing Chat de Microsoft, constituyen un ámbito de desarrollo específico de la inteligencia artificial y de tecnologías como el aprendizaje automático o los grandes modelos de lenguaje.

FIGURA 3Desarrollo de los chatbots en el contexto de la inteligencia artificial

La inteligencia artificial es un área de conocimiento cuyo propósito es desarrollar máquinas que sean capaces de imitar la inteligencia humana para el desarrollo de diferentes tareas. Algunas de las herramientas y aplicaciones de uso más extendido basadas en la inteligencia artificial son los asistentes virtuales capaces de comprender el habla humana, cuyo uso se ha integrado y generalizado en la vida cotidiana para controlar el funcionamiento de determinados dispositivos, de los traductores automáticos, los sistemas de recomendación usados en muchas plataformas de internet para presentar los contenidos que nos pueden resultar de interés, los sistemas de apoyo a la conducción (frenado automático, advertencia y corrección de dirección, etc.), cuyo desarrollo más avanzado serían los vehículos completamente autónomos capaces de funcionar sin conductor, o las herramientas generativas y creativas, entre las que se incluirían los chatbots textuales o los generadores de obras de arte digitales o imágenes.

La inteligencia artificial generativa es la tecnología específica dentro de la inteligencia artificial que permite crear nuevos contenidos a partir de modelos que han sido entrenados para ello con grandes volúmenes de datos, que no solo se limitan a texto, ya que pueden incluir imágenes, vídeos, audio, código, simulaciones o presentaciones.

El desarrollo de la inteligencia artificial generativa se fundamenta a escala tecnológica en el aprendizaje automático (Machine Learning, en inglés), rama de la inteligencia artificial que trata de reconocer patrones en los datos a través de algoritmos estadísticos de aprendizaje y la generación de modelos, que pueden ser posteriormente generalizables a nuevos datos u otros datos desconocidos, con el propósito de desarrollar tareas de forma autónoma o resolver problemas, siendo algunos de los muchos ámbitos a los que se ha aplicado el aprendizaje automático el reconocimiento del habla, la minería de datos o los grandes modelos de lenguaje (Large Language Models, abreviado como LLM), que son modelos de aprendizaje profundo (Deep Learning), un subconjunto de algoritmos de aprendizaje automático que constan de una red neuronal conformada por un elevado número de parámetros cuyo propósito es generar abstracciones desde un nivel más bajo hasta uno más alto, identificando características, patrones o jerarquías en los datos, entre otros elementos.

Los chatbots generadores de contenidos textuales se fundamentan en modelos lingüísticos de aprendizaje automático que, a partir de grandes volúmenes de datos, aprenden patrones y generan nuevos textos. El principio esencial que rige su funcionamiento (explicado en términos muy simples) es que, a partir de datos matemáticos y estadísticos, calculan qué palabra es la más probable que vaya a continuación en una frase para los contenidos que deben generar en relación con el contexto o la petición de información efectuada. El aprendizaje automático es un rasgo fundamental de estas aplicaciones, que les permite mejorar a partir de los nuevos datos disponibles y la experiencia de su funcionamiento, sin que sea necesario para ello la intervención humana o siendo esta mínima (Lung y Ting, 2023).

Las letras incluidas en la denominación del chatbot de OpenAI, ChatGPT (Generative Pretrained Transformer), permiten definir de forma precisa las características y el funcionamiento de este modelo de lenguaje. El concepto generativo hace referencia a su capacidad de crear o componer textos, prediciendo cuál es la palabra más adecuada que debe ser la siguiente para incluir en una frase o párrafo, basándose para ello en la secuencia de palabras anteriores de la frase que se está redactando. La noción preentrenado alude a un rasgo relevante, que es la preparación o adiestramiento de la herramienta, que consiste en acumular grandes volúmenes de datos hasta que su funcionamiento es el adecuado, a juicio de los entrenadores (programadores informáticos o ingenieros). Finalmente, la alusión a transformador hace referencia a la red neuronal que utiliza para su funcionamiento, que es una red neuronal profunda (DDN, Deep Neural Network), denominada gran modelo de lenguaje, desarrollado para el procesamiento del lenguaje natural, que analiza la sintaxis y la semántica de este, identificando la dependencia existente entre las palabras con el propósito de generar un texto coherente.

Las redes neuronales artificiales, como su propio nombre indica, tratan de replicar el funcionamiento biológico del cerebro humano. Cada uno de los nodos o neuronas artificiales recogen atributos o características propias del elemento con el que está asociada. Se fundamentan en el reconocimiento de patrones, para lo que deben ser entrenadas para discriminar los rasgos propios de los diferentes elementos que se quiere identificar. Su funcionamiento se basa en un conjunto de capas (una de entrada de información, otra de salida y un número variable de capas intermedias, que puede ser de varios miles), en las que las neuronas que conforman cada una de las capas están conectadas con las de la capa siguiente. Las neuronas de las diferentes capas se van activando a partir de las conexiones entre estas y la información recibida hasta llegar a la capa de salida, información que incluye un peso o valor que mide la importancia de la conexión, que puede motivar si se trata de un valor inferior a un determinado umbral, el cese o que no se active la conexión en la siguiente capa. También se transmite un valor de sesgo, que mide el hecho de que ciertas neuronas se activen con mayor facilidad que otras. El entrenamiento de estas redes se basa en la comprobación de los resultados ofrecidos por la capa de salida, aportando nueva información a la red si no son satisfactorios, además de ajustar los pesos o umbrales de conexión y los valores de sesgo para obtener los mejores resultados posibles.

Uno de los aspectos más controvertidos en relación con el desarrollo de la inteligencia artificial generativa y particularmente de chatbots como ChatGPT en el ámbito educativo es su uso inapropiado, que transgrede los principios asociados a la noción de integridad académica, es decir, el cumplimiento de los principios éticos (formales o tácitos) que rigen el funcionamiento de la ciencia, de una disciplina, o las pautas fijadas por las instituciones que se dedican a la docencia e investigación (González Alcaide et al., 2020).

A escala tecnológica, se ha destacado como principal limitación de ChatGPT y otras aplicaciones similares que, al estar basado su desarrollo en una aproximación estadística fundamentada en el aprendizaje de los patrones existentes en un amplio volumen de datos textuales, puede perpetuar los sesgos o estereotipos existentes en estos (Lung y Ting, 2023), por lo que incluso se ha planteado que sería necesario redefinir el desarrollo de los grandes modelos de lenguaje, incidiendo en aspectos como la calidad de los datos, para evitar que los chatbots se conviertan en meros papagayos estocásticos que difundan información inadecuada (Bender et al., 2021).

En relación con el uso que se puede hacer de esta tecnología en el ámbito educativo, Adiguzel et al. (2023) destacan las siguientes limitaciones y problemas:

• La fiabilidad y exactitud de la información que presenta.

• Posibles sesgos en los datos que conlleven respuestas discriminatorias o engañosas.

• No respeta la privacidad, ya que puede recoger y almacenar información personal sobre los estudiantes.

• Puede limitar el papel de los profesores y causar un impacto en el mercado laboral de los educadores.

• La falta de interacción humana, lo que reduce la calidad de la experiencia educativa de los alumnos.

• Puede generar una excesiva dependencia de la tecnología.

• No respeta los derechos de propiedad intelectual.

• Puede limitar la transparencia y la rendición de cuentas, ya que puede ser difícil identificar cómo toma las decisiones el chatbot.

La extensión del uso de las aplicaciones generadoras de diferentes tipos de contenidos (figura 4) ha creado una jerga específica para hacer referencia a diferentes aspectos relacionados con las interacciones establecidas con ellas (tabla 1).

FIGURA 4Aplicaciones de inteligencia artificial de uso más extendido en función del tipo de contenido que generan

TABLA 1Glosario de términos asociados al uso de las herramientas de inteligencia artificial generativa

Término

Definición

Alucinación

Término utilizado para referir los casos en los que los chatbots generan información aparentemente correcta, verosímil e incluso plausible, pero que es falsa o inexistente. Generalmente, se produce en los datos numéricos, fechas, referencias bibliográficas o enlaces, debido a la naturaleza probabilística de los grandes modelos de lenguaje.

Contexto

Conjunto de información utilizada para generar los contenidos, que incluye, además de la entrada o instrucción (prompts) que se realiza, todos los textos y contenidos generados como respuesta a peticiones previas.

Control de estilo o condiciones de generación

Funcionalidades o parámetros que permiten definir las salidas generadas por un modelo de inteligencia artificial generativa, incorporados en ocasiones en forma de diferentes opciones, por ejemplo, especificando el tono de un texto o el aspecto visual de una imagen.

Entrada (prompt)

Instrucción introducida en una aplicación de inteligencia artificial generativa de forma textual u oral con el propósito de que genere una respuesta. Puede adoptar la forma de una pregunta, de petición de información o de exhortación para desarrollar una acción, pudiendo acompañarse en algunas aplicaciones de documentos o imágenes.

Ingeniería de instrucciones (prompt engineering)

Área de conocimiento que estudia cómo estructurar el texto o formular las instrucciones para que sean interpretadas de forma adecuada por los grandes modelos de lenguaje. Considera, entre otros aspectos, cómo formular las peticiones, los elementos que se deben incluir, la relevancia del contexto, el rol que debe desempeñar la inteligencia artificial generativa, la evaluación de los resultados y cómo optimizarlos.

Inteligencia artificial generativa

Denominación genérica utilizada para referir las aplicaciones informáticas que son capaces de crear textos, imágenes, audio, vídeo u otros contenidos como respuesta a preguntas o peticiones de información expresadas en lenguaje natural.

Interfaz de Programación de Aplicaciones (API)

Código que permite que diferentes softwares se comuniquen entre sí, solicitando datos o acciones. En el contexto de la inteligencia artificial generativa, permiten que las páginas web o los desarrolladores de aplicaciones integren los modelos generativos en estas.

Interrupción del conocimiento

Fecha de actualización del conjunto de datos de entrenamiento, de forma que las aplicaciones no recogen los acontecimientos ocurridos con posterioridad a esta, si bien algunas herramientas pueden ofrecer información actualizada mediante búsquedas, aunque se limitan a resumir los datos, ya que no han sido sometidos a entrenamiento.

Token

Unidades básicas de texto en las que se divide cualquier pregunta o petición de información en un gran modelo de lenguaje (como palabras, partes de palabras o signos de puntuación) a partir de las cuales genera su respuesta de uno en uno basándose en los tokens anteriores.

Ventana contextual

Longitud máxima de contexto permitida por los grandes modelos de lenguaje para generar sus respuestas.

DEL COMPROMISO INDIVIDUAL A LA CREACIÓN DE UNA CULTURA INSTITUCIONAL DE LA INTEGRIDAD

Kumar et al. (2023) destacan que el desarrollo presente y futuro de la inteligencia artificial generativa afecta a la forma de conceptualizar y entender la integridad académica, ya que constituyen dos esferas estrechamente relacionadas entre sí. Por ello, el conocimiento del marco conceptual general fijado por los organismos internacionales de referencia sobre la integridad académica, así como las pautas y recomendaciones específicas que se han promulgado en relación con la inteligencia artificial generativa tras el lanzamiento de ChatGPT, constituye un buen punto de partida para adaptarse a esta nueva realidad y, en su caso, integrarla en la práctica docente.

El International Center for Academic Integrity (ICAI)

El International Center for Academic Integrity (ICAI), que se ha erigido en un destacado organismo de referencia a escala internacional para combatir el engaño, el plagio y la deshonestidad académica en el marco de la educación superior, define la integridad académica como «el compromiso personal e institucional con seis valores fundamentales y los principios que emanan de esos valores: honestidad, confianza, equidad, respeto, responsabilidad y coraje» (International Center for Academic Integrity, 2021).

La honestidad es la cualidad de ser honesto, alejándose del fraude y el engaño en favor de la legitimidad y la veracidad. Constituye el principio esencial asociado a la integridad académica y el requisito previo para alcanzar el resto de los valores que la definen. Según el ICAI, la honestidad debe partir de los individuos y tanto el alumnado como el profesorado la deben cultivar y practicar activamente, sentando así las bases de la integridad para toda la vida. También las instituciones deben comprometerse a ser honestas con el alumnado, el profesorado y el resto de los agentes involucrados en el proceso educativo, liderando una cultura de la integridad académica. La honestidad se puede demostrar siendo sincero en todas las facetas académicas y actividades en las que se participa, otorgando el crédito que merece el autor de un trabajo u obra ajena, asumiendo y cumpliendo los compromisos adquiridos, fundamentando en evidencias factuales los trabajos realizados y aspirando a la objetividad, considerando los diferentes puntos de vista y las posibles ideas preconcebidas que se tengan.

La confianza es la capacidad para confiar en que el trabajo que han realizado tanto estudiantes como investigadores se ha desarrollado de forma honesta, que no se ha falsificado y que las normas se aplican de manera equitativa a todos los miembros de la comunidad académica. La confianza debe ser recíproca y constituye la base para colaborar y compartir información, así como para la circulación de nuevas ideas. El ICAI destaca que la confianza se puede alcanzar fijando unas directrices claras para las tareas que se han de realizar y los procesos de evaluación, promoviendo la transparencia de los valores, procesos y resultados, y confiando, alentando y otorgando el crédito merecido a los demás.

La equidad es la cualidad de ser justo e imparcial, evitando tratos de favor. Todos los miembros de la comunidad educativa, tanto estudiantes como profesorado y personal de administración, deben esperar y otorgar un trato justo en las relaciones que mantienen entre sí, respondiendo a la deshonestidad con coherencia, de forma justa y sin fisuras. El ICAI destaca que la equidad se muestra aplicando la normativa existente y asumiendo la responsabilidad por las acciones realizadas.

El respeto