Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
La inteligencia artificial ha dejado de ser una promesa futura para convertirse en una realidad que transforma radicalmente el ejercicio del derecho y los sistemas judiciales. Desde la automatización de procesos hasta la toma de decisiones basadas en algoritmos, el impacto de la IA en el ámbito legal plantea desafíos regulatorios, éticos y prácticos que aún están en plena evolución. Este libro reúne a especialistas y expertos en tecnología para analizar los aspectos más críticos de la relación entre Inteligencia Artificial y Derecho. Se abordan temas fundamentales como la regulación global de la IA, la protección de datos y privacidad en la era digital, la influencia de los algoritmos en la toma de decisiones judiciales y el impacto de la IA generativa en la producción de contenido jurídico. Con un enfoque riguroso y actualizado, la obra explora cómo los tribunales están incorporando herramientas de IA, la creciente automatización de la mediación y resolución de conflictos, y los nuevos riesgos asociados con el reconocimiento facial y la biometría. Además, se analizan las implicancias de la IA en la responsabilidad civil y los derechos digitales, destacando la necesidad de marcos normativos que equilibren innovación y garantías fundamentales. Este libro ofrece una guía indispensable para comprender el presente y futuro del derecho en la era de la Inteligencia Artificial. Una obra clave para abogados, jueces, académicos y todos aquellos interesados en el impacto de la tecnología en la justicia.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 763
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Horacio R. Granero(Director)
Inteligencia artificial en el derecho: entre la Innovación y la protección de derechos / Horacio R. Granero... [et al.]; Director Horacio R. Granero. - 1a ed. - Ciudad Autónoma de Buenos Aires: Albremática, 2025. Libro digital, EPUB
Archivo Digital: descarga y online
ISBN 978-987-8343-82-2
1. Inteligencia Artificial. 2. Derecho Informático. 3. Ley de Protección de Los Datos Personales. I. Granero, Horacio R. II. Granero, Horacio R., dir.
CDD 346.04
Queda rigurosamente prohibida, sin la autorización escrita de los titulares del copyright, bajo las sanciones establecidas por las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la fotocopia y el tratamiento informático.
© 2025, Editorial Albremática S.A.
Primera edición
ISBN: 978-987-8343-82-2
Hecho el depósito que marca la Ley 11.723
Primera edición en formato digital
Versión: 1.0
Digitalización: Proyecto451
Portada
Portadilla
Legales
Sobre los autores (ordenados alfabéticamente)
Introducción
Regulación de la IA
Ley de Inteligencia Artificial en Europa. Un paso más hacia la meta final y un desafío a la investigación
Por Horacio R. Granero
Mapa de regulación actual sobre el uso de modelos de inteligencia artificial (“IA”)
Por Raquel S. Mass y Roberto Docimo
La imperiosa necesidad de regular –bien– la Inteligencia Artificial (Con motivo de la reunión del G7 en Italia en Junio 2024)
Por Horacio R. Granero
Estado actual de la regulación de la IA en la República Argentina y propuestas de análisis de soluciones de otros países
Por Horacio R. Granero
La nueva regulación de la Unión Europea sobre Inteligencia Artificial
Por Favio Farinella
Protección de datos personales y privacidad digital
Libertad vs Seguridad, viejo dilema que la Inteligencia Artificial tensa al extremo
Por Jorge Vilas Díaz Colodrero y Laura Victoria Bonhote
La problemática en la ausencia de consentimiento de los usuarios ante el uso y tratamiento de los datos personales por los Desarrolladores de IA
Por Roberto Arturo Docimo
Derecho a la Privacidad. Sistemas automatizados. Sistemas predictivos y decisiones basadas en datos. Sistema de reconocimiento facial. Sistema biométrico de autenticación de usuario. Riesgos
Por Nora Cherñavsky
Aplicaciones de la IA en el derecho y la justicia
La IA como herramienta útil para la Gestión de los Riesgos Legales
Por Roberto Arturo Docimo
¿Puede la Inteligencia Artificial predecir si tengo razón o no en un juicio?
Por Horacio R. Graner
o
La utilización de la Inteligencia Artificial en las Cortes Supremas con referencia a la actividad jurisdiccional de la Corte Suprema de Justicia de la Nación
Por Mariel Altamiranda, Adrián Bugvila, Sergio Jalil y Gonzalo Saráchaga
Gemini
y oficinas judiciales eficientes: propuesta de trabajo colaborativo dinámico
Por Federico Gustavo López
Inteligencia artificial y mediación: Una nueva herramienta para resolver conflictos
Por Ignacio Noble y Marco Rossi
La IA y una revisión pendiente de los jueces
Por Gonzalo Oliva Beltrán
La valoración de pruebas periciales en procesos civiles: El impacto de la inteligencia artificial
Por Martín Rubén López
La inteligencia artificial general como medio comisivo de delitos. Chatgpt, Copilot, Gemini, IA Meta, Grok y su utilización en la perpetración de delitos informáticos
Por Carlos Christian Sueiro
La inteligencia artificial generativa (IAG) y la producción de imágenes de pornografía infantil o material de abuso sexual infantil (MASI)
Por Carlos Christian Sueiro
La informática jurídica decisional (IA) aplicada a personas en situación de vulnerabilidad: una mirada desde la óptica de John Rawls.
Por Luis Fernando Poenitz
Chat GPT en el Sector Público ¿dónde estamos?
Por Antonella Stringhini
Big Data, IA y neurociencia
Uso de
Chat Gpt 4
y “
data analyst
”: toma de decisiones basadas en datos
Por Federico Gustavo López
De Inteligencia Artificial y redes neuronales artificiales -Nociones básicas para Abogados
Por Lucas De Venezia
La Tríada Tech: Cuando los Sistemas Biométricos, la IA y el IoT se unen
Por Susana Eloísa Mender Bini
Ética, IA y derechos digitales
El dilema de si la Inteligencia Artificial puede razonar o no (repite como un loro o es un nuevo tipo de inteligencia)
por Horacio R. Granero
IA, Mercado y Ética.“Cuando el dueño de la pelota impone las reglas de un juego en constante evolución”
Por Juan Martín Brun y Gastón Zentner
Inteligencia artificial y Derechos de las Mujeres: algoritmos y sesgos de género.
Por Maite Herrán
Responsabilidad civil y desafíos legales de la IA
Los desafíos que presenta la inteligencia artificial al momento de analizar los presupuestos de la responsabilidad civil
Por Juan Francisco González Freire
1
2
3
4
5
6
7
8
9
10
11
12
14
15
16
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
104
105
106
108
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
156
157
158
159
160
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
179
180
181
182
183
184
186
187
188
189
190
191
192
193
194
195
196
197
198
199
201
202
203
204
205
206
207
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
Portada
Portadilla
Legales
Tabla de contenidos
Comienzo de lectura
Abogada recibida en la Universidad Nacional de La Plata, se desempeña en el Tribunal de Trabajo N° 2 de La Plata. Diplomada en Derecho Procesal y Derecho Laboral. Maestranda en Derecho Procesal UNLP y por la Universidad Austral.
Abogada (UBA). Candidata LLM y mención de honor en la Diplomatura de Derecho Constitucional Latinoamericano (Univ. Austral). Cursó el Programa de Inteligencia Artificial y Derecho (UBA). Docente de la Diplomatura en IA y Gobierno 5.0 de la Universidad Austral.
Abogado (UFASTA), Especialista en Derecho Procesal (UBA), Especialista en Derecho de Daños (UBA), Maestrando en Derecho Privado (UBA), Posgraduado en Derecho de Defensa del Consumidor (UNMDP, UBA, UCA), Docente en Contratos Civiles y Comerciales (UBA), CPO Derecho del Consumidor (UBA), CPO Derecho de Daños (UBA), Derecho Comercial parte General (UFASTA). Prosecretario Administrativo de la PGN, asignado al Programa para la Protección de los Usuarios y Consumidores de la PGN. Contacto:www.linkedin.com/in/juan-martín-brun; [email protected].
Abogado con formación en Derecho Procesal Civil. Maestría en Derecho Procesal (Universidad Nacional de La Plata). Jefe de trabajos prácticos, Catedra I Derecho Procesal Civil (Universidad Nacional de La Plata). Adscripto, Catedra I Derecho Procesal Civil (Universidad Nacional de La Plata). Profesor en la Universidad Católica de La Plata.
Abogada (Facultad de Derecho UBA). Especialización en Derecho de Alta Tecnología (UCA). Entre sus antecedentes profesionales se cuenta su participación en representación del Ministerio de Justicia en la Comisión Biministerial para la Redacción de la Ley de Delitos Informáticos (2006). Fue Asesora en la Dirección de Política Criminal y Secretaria de Política Criminal del Ministerio de Justicia en diversos proyectos en Materia Penal, de reforma al Código Penal y en materia de Juicio por Jurados (2006/2009). Fue Asesora ad honorem en la Comisión de Legislación Penal de la Honorable Cámara de Senadores para la redacción de la Ley de Delitos Informáticos, año 2008. Fue la representante por el sector gubernamental en las “Conferencias Octopus” de Estrasburgo desarrolladas en el marco del Consejo de Europa para la armonización de legislación penal en materia de delitos informáticos y para la adhesión argentina a la Convención de Cibercriminalidad de Budapest (años 2007, 2008, 2009). Directora General de Jurídicos de ANSES (2011/2015). Actualmente es funcionaria en la Unidad Fiscal Especializada en Ciberdelincuencia (2016 a la actualidad). Es Profesora Regular Adjunta por concurso del Departamento de Derecho Penal de la Facultad de Derecho (UBA) en la materia “Elementos de Derecho Procesal y Procesal Penal”. Profesora de Grado de Ciclo Profesional Orientado de la Facultad de Derecho de la UBA y de Posgrado en la carrera de Especialización en materia Penal de la Facultad de Derecho (UBA). Profesora de Posgrado en Universidad USAL, UAI, UNR, Mendoza, Austral. Capacitadora en “Teoría y Práctica de la Investigación en materia de Cibercrimen” Ministerio Público Fiscal de la Nación (2016/2018).
Abogado (UCA). Doctorando en Derecho (UNLZ). Especialista en Derecho e Inteligencia Artificial (SALAMANCA). Profesor Adjunto Regular de Derecho Constitucional Procesal (UCES) y docente de derecho de la Seguridad Social (UNLZ). Docente de Cursos de Especialización de Posgrado de la Asociación de Magistrados y Funcionarios de la Justicia Nacional Argentina (AMFJN). Co-Director de la diplomatura en Derecho 5.0 - Transformación digital de la abogacía (UMSA). Co-Director del Curso IA y Justicia, AMFJN. Coordinador de la maestría en Derecho Procesal Constitucional (UNLZ). Miembro de la Federación Iberoamericana de Asociaciones de Derecho e Informática (FIADI). Líder del área de derecho de la Sociedad Argentina de Inteligencia Artificial. Autor y expositor.
Abogado con orientación en Derecho Penal de la Facultad de Derecho (UBA). Seminario “Perfeccionamiento de las Competencias de Abogado del Estado” de la PTN. International Certification Legal Project Practitioner and International Certification Legal Process Improvement Professional of IILPM. Diplomado en Legaltech, IA y Management Legal de UCEMA. Diplomado Universitario en Ética y Compliance de la UMSA en la Escuela de Posgrado del CPACF. Programa Ejecutivo de Especialización en Gestión de Canales de Denuncias (ISO 37002) e Investigaciones Internas (ISO 37008) del Instituto Latinoamericano de Compliance. Internationally Certified Compliance Professional of IFCA/AAEC. Programa “Ciberdelitos, Hacking & Aspectos Legales de la Evidencia Digital” de la UP. Actualmente me desempeño en el Banco de la Nación Argentina dentro de la Subgerencia General Principal de Sistemas, Tecnología y Servicios de TI, y Maestrando en Derecho y Estado Digital en la Universidad Champagnat. https://www.linkedin.com/in/roberto-arturo-docimo-927709255/
Abogado y Doctor en Derecho, con mención summa cum laude (UNMdP); Post-Doctor en Ciencias Sociales (Universidad de Almeria, España); Bachelor of Sciences in Politics (London School of Economics, London University, RU); Especialista en Derecho Internacional (Leiden University, Holanda); Master en Gestión Ambiental, en Educación Profesional UNESCO (San Sebastián y París) y Master en Aspectos Jurídicos y Económicos de las Nuevas Tecnologías. Es profesor titular de grado y doctorado. Conferencista internacional en cuestiones relativas al derecho, nuevas tecnologías y derechos humanos. Ha escrito más de 250 artículos la mayoría publicados en revistas académicas indexadas, y 14 libros. Actualmente dirige el Centro de Investigación en Derecho Internacional y se desempeña como Consultor internacional de programas de posgrado y Experto Independiente en materia de derechos humanos ante la Corte Internacional de Justicia.
Abogado, Especialista en Responsabilidad Civil y Derecho de Daños, Autor de diversa Bibliografía jurídica, tales como “La Responsabilidad Civil en el Código Civil y Comercial de la Nación” (1ra, 2da., y 3ra. Edición), Editorial Albremática S.A., años 2018 y 2020; “Derecho de Daños aplicable según el Código Civil y Comercial de la Nación”, Editorial La Rocca, año 2021; Director del área jurídica de “Derecho de las Obligaciones, Responsabilidad Civil y Derecho de Daños” de la prestigiosa Editorial elDial.com; Autor de más de 150 Doctrinas y artículos Académicos publicados tanto a nivel Nacional como Internacional mediante distintas Editoriales, como Thomson Reuters (La Ley), El Derecho, elDial.com, Erreius (Errepar), IJEditores, Dialnet (España); Profesor; Expositor y conferencista en Colegios de Abogados, Universidades e Instituciones Judiciales Nacionales; Presentante de Bibliografías en Instituciones Europeas, tales como la Universidad Complutense de Madrid, España; Ilustre Colegio de Abogados de Madrid, España; Biblioteca Nazionale Centrale di Roma (Italia); Autor de diversas presentaciones respecto de propuestas de Reformas parciales Legislativas por ante el Ministerio de Justicia y Derechos Humanos de la Nación en relación a los artículos 1771; 1775, inc. C); 1780 inc. B); 1743; 2561; arts. 1734, 1735 y 1736; art. 1718, del Código Civil y Comercial de la Nación, entre otros; Coautor de Bibliografía jurídica titulada “Cuestiones Procesales en el Código Civil y Comercial de la Nación”, Editorial Albremática, año 2019, Docente a cargo de diversos cursos de Capacitación Profesional dictados por distintas editoriales Nacionales (cursos de enseñanza presencial y modalidad online). Docente Universitario de Contratos Civiles y Comerciales, Cátedra a cargo del Dr. Marcelo López Mesa, Universidad Maimónides, Ciudad de Buenos Aires.
Abogado (1969), Doctor en Ciencias Jurídicas (summa cum laudae) (2001). Profesor universitario desde 1970, y Profesor Emérito en 2018. Fue Secretario Académico de la Facultad de Derecho, Director del Departamento de Posgrado y fundador en 1997 de la Carrera de Posgrado de Abogado Especializado en Derecho de la Alta Tecnología (UCA). En 1987 fundó Albremática, empresa editora de elDial.com, es su actual presidente, donde lidera la División Sherlock-Legal de Inteligencia Artificial. Integra el Instituto de Derecho e Informática del Colegio Público de Abogados. Es profesor invitado de diversas universidades de la República Argentina y del exterior habiendo disertado en seminarios y publicado trabajos de su especialidad Es autor de varios libros de su especialidad. En 2024 asesoró a la Comisión de Ciencia y Tecnología de la Cámara de Diputados de la Nación sobre regulación de la Inteligencia Artificial y dictó conferencias sobre el tema en la Universidad Complutense de Madrid.
Jueza de Familia. Titular del Juzgado Nª5 La Matanza. Abogada. Diploma de Honor (UBA). Especialista en Magistratura (USAM). Especialista en Justicia Constitucional (Universidad de Bolonia). Diplomada en Derecho de las Familias (AMAFULAM). Actualización de Posgrado Derecho Procesal Civil, Comercial y Contencioso (UBA). Actualización de Posgrado Derecho de las Familias (UM). Egresada de la Escuela Judicial del Poder Judicial de Nación, de la Provincia de Buenos Aires y del Curso Intensivo en el Poder Judicial del Reino de España. Diplomatura de Violencias por Razones de Género - 2° Cohorte (SCBA). Diplomado en Actualización de Jurisprudencia de la CIDH. Doctoranda. (UNLAM). Docente de UCALP y diversos posgrados. Ex docente UBA, UNLAM y UCES.
Procurador, abogado y escribano (UNLP). Máster en Gobernanza y Derechos Humanos por la Universidad Autónoma de Madrid (2016). Maestrando en Derecho Procesal por la Universidad Nacional de La Plata. Profesor de Derecho Romano (Cátedra 2 UNLP). Prosecretario Letrado de la Defensoría Pública Oficial N° 1 ante los Tribunales Orales en lo Criminal Federal de La Plata.
Abogado UCA; Magister Maestría en Magistratura y Derecho Judicial Universidad Austral —medalla de oro por mejor promedio y premio mejor tesina—; miembro del Departamento de Derecho Judicial Universidad Austral; docente por concurso “Taller de Análisis de Jurisprudencia” en UCA; profesor de Derecho Penal Parte General y Especial en UNPAZ; doctorando en Ciencias Jurídicas UCA; diplomado en Justicia y Prácticas Restaurativas UCASAL; diplomado en Gestión Integral de la Justicia Penal Juvenil Universidad de San Isidro; Auditor Líder ISO 9001:2015 (IQ Net Academy Training); maestrando en Master in Business Analytics Universidad de San Andrés. Mail: [email protected]. Linkedin: linkedin.com/in/federico-gustavo-lopez-50373552.
Abogado por la Facultad de Derecho y Ciencias Políticas de la UNNE. Magíster en Magistratura y Derecho Judicial por la Universidad Austral y en Derecho Privado en la Facultad de Derecho de la UNR. Diplomado en Innovación y Gestión Judicial Tecnológica por la Universidad de Champagnat. Doctorando en Ciencias Jurídicas en la Facultad de Derecho de la UCA. Asociado E-Justicia Latinoamérica. Juez de Primera Instancia en lo Civil y Comercial en la Ciudad de Posadas, Misiones, Argentina. Profesor de grado en la UNaM y UGD.
Abogada especializada en asesoramiento corporativo- Egresada de la Universidad Nacional de Rosario. Posgrado en Asesoramiento Empresarial por la Universidad Austral. Especialista en Riesgo y Compliance. Diplomada UCEMA Data Governance y RGPD. Ganadora del premio Westin Scholar de la IAPP. Certificación LGPD. Candidata Master in Business & Technology Universidad de San Andrés. Actualmente se desempeña como Compliance Officer en H&CO Global Advisors.
Abogada (UNSTA, Tucumán); Doctora en Ciencias Jurídicas por la Facultad de Derecho de la Universidad Católica Argentina; LLM en Propiedad Intelectual & e-Law (UCC, Irlanda), especialista en Sistemas Biométricos y Privacidad (FernUni Schweiz, Suiza), miembro del grupo Argentino de Bioestadística y de la International Biometric Society, estudiante de Ing. en IA (UP). Autora del libro “Sistemas Biométricos. Privacidad y vulnerabilidad de los datos utilizados por los organismos del Estado Argentino” (elDial.com - 2024).
Abogado, Notario, Profesor de Derecho y Mediador. Director del Centro de Mediación del Poder Judicial de Tucumán Argentina. Coordinador del Consejo de Investigación de la Fac. de Cs. Jurídicas, Políticas y Sociales de UNSTA. Profesor de grado y posgrado. Director a cargo de proyectos de investigación en MARC. Director de la Especialización en MARC, de la Diplomatura en Mediación y Métodos de Resolución de Conflictos y de la Diplomatura en Justicia Restaurativa y Mediación Penal de UNSTA. Director del Departamento de Educación y de las carreras de Profesorado en Derecho, Ciencias Políticas, Ciencias Económicas y Educación de la Facultad de Humanidades de UNSTA. Autor y coautor de libros.
Abogado por la Universidad Católica Argentina. Tiene un Máster en Leyes (LLM) de la Universidad de Westminster (Inglaterra), y un Máster en Ética e Inteligencia Artificial de la Universidad de Salamanca (España). Actualmente es doctorando de la Universidad Austral. Es socio del estudio Barreiro Abogados, donde lidera la práctica de Derecho Corporativo y Tecnología.
Abogado (Universidad de Buenos Aires), Magíster en Derecho Penal con Orientación Económica (Universidad Autónoma de Madrid), Docente de Derecho Penal Especial y Codirector de la Extensión Áulica Posadas (Universidad Nacional del Nordeste), Secretario Relator en lo Penal del Superior Tribunal de Justicia de Misiones y autor de varios artículos académicos de Derecho (IJEditores, elDial.com). Correo electrónico: [email protected]: Linkedin: www.linkedin.com/in/fernando-poenitz-758808a4. Instagram: @fernandopoenitz. Teléfono de contacto: (+54) 911-61289906.
Abogado, con un fuerte enfoque en la innovación y la tecnología. Es doctor “honoris causa” por la Federación Iberoamericana de Abogados, en reconocimiento por su compromiso con la tecnología y la justicia. Es diplomado en Metaverso, Gaming y Web 3.0 por la Universidad Nacional de Buenos Aires. Actualmente es Director del Laboratorio de Inteligencia Artificial, Innovación y Transformación Digital (DYNTEC) en la Facultad de Derecho y Ciencias Sociales de la Universidad Nacional de Tucumán (UNT) y se desempeña como funcionario en la justicia laboral de Tucumán. Es docente adjunto y auxiliar en asignaturas que vinculan derecho y tecnología en la Universidad San Pablo Tucumán y en la UNT. Además, de ser investigador, coordina el suplemento “Abogacía Práctica Digital” de la Editorial ElDial y es autor de numerosos artículos y libros sobre innovación legal, entre ellos se destaca como coautor de “Metaverso y resolución de conflictos”; “Chat GPT: ¿una IA que revolucionará la abogacía?” y la primera “Guía de uso de IA en el aprendizaje práctico del derecho para estudiantes de abogacía” aprobada por una Facultad de Derecho en Argentina.
Abogado por la Universidad Nacional de La Plata (UNLP); Especialista en Derecho Ambiental (UNLP); máster en Estado de Derecho Global y Democracia Constitucional (Universidad de Génova); Magister (C) en Derecho Procesal (UNLP); Especialista en Crimen Organizado, Corrupción y Terrorismo (Universidad de Salamanca) y Especialista en Responsabilidad Civil (Universidad de Castilla La Mancha). Se desempeña como Relator en la Cámara Federal de Apelaciones de La Plata. Es Miembro de la Asociación Argentina de Derecho Procesal.
Abogada por la Universidad de Buenos Aires. Especialista en Derecho Administrativo y Administración Pública por la Universidad de Buenos Aires. Maestrando en Inteligencia Artificial CEUPE. Directora del área de capacitación en Transformación digital e Inteligencia Artificial del Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la UBA. Prosecretaria en el Poder Judicial de la CABA. Profesora de grado y posgrado sobre Transformación Digital e Inteligencia Artificial en la Administración Pública en la Universidad de Buenos Aires. Autora de publicaciones nacionales e internacionales sobre Transformación Digital e Inteligencia Artificial en la Administración Pública.
Abogado, Diploma de Honor (2001), Especialista en Derecho Penal (2013), y Doctor en Derecho Penal (2021) por la Facultad de Derecho de la Universidad de Buenos Aires (UBA). Realizó estudios en el Exterior en la Juristische Fakultät. Georg- August-Universität Göttingen, Alemania (2011), Juristische Fakultät. Universität – Salzburg, Austria (2012) y en el International Institute of Higher Studies in Criminal Sciences (ISISC), Siracusa, Sicilia, Italia (2013). Asimismo, realizó una estancia de investigación en relación al tema en el Max Planck Institut. Freiburg, Alemania (2016), sobre el tema “Criminalidad Informática y Prueba Digital”. Es Profesor Adjunto (Int) de la materia “Criminalidad Informática” (UBA), y también se desempeña como Profesor Adjunto en la Universidad del Salvador (USAL), en la Universidad de Belgrano (UB), en la Universidad Nacional del Litoral (UNL) y en la Universidad de Flores (UFLO). Profesor Invitado de la Universidad Austral (UA), Universidad Abierta Interamericana (UAI), Universidad de Belgrano (UB), Universidad Católica Argentina (UCA); Universidad Católica de Salta (UCASAL); Universidad Católica de Cuyo (UCCuyo); Universidad Champagnat (UCH), Universidad del Aconcagua (UDA) de la Universidad del Este de La Plata (UDE), Universidad de Flores (UFLO); Universidad Kennedy (UK); Universidad de Mendoza (UM), Universidad Nacional del Comahue (UNCOMA), Universidad Nacional de Cuyo (UNCuyo); Universidad Nacional de La Rioja (UNLR), Universidad Nacional de Lomas de Zamora (UNLZ), Universidad Nacional del Nordeste (UNNE),; Universidad Nacional de Rosario (UNR); Universidad Nacional del Sur (UNS); Universidad Nacional de Tucumán (UNT), Universidad de San Isidro (USI); Universidad del Salvador (USAL) y de la Universidad Torcuato Di Tella (UTDT). Coordinador del Centro de Estudios en Ciberseguridad y Protección de Datos (CECIB) de la Universidad CEMA (UCEMA). Se desempeña profesionalmente como Secretario Letrado de la Defensoría General Adjunta de la Nación.
Abogado por la UBA, Doctorando en Ciencias Políticas, Magister en Derecho Administrativo y Master en Políticas Públicas por la Universidad Austral. Diplomado en Negocios en Wharton Business School, Penn University, USA; Experto en Impacto de IA y Nuevas Tecnologías en la sociedad. Ceo & Co-Founder de DiPhot S.A. y Director de la Diplomatura en IA y Gobierno 5.0 y Docente de la Maestría en Políticas Públicas de la Universidad Austral.
Abogado (UBA), Ayudante de cátedra en Fuentes del Derecho Internacional (Facultad de Derecho UBA). Miembro del Programa para la Protección de los Usuarios y Consumidores de la PGN. Docente de Economía nivel secundario. Contacto:https://www.linkedin.com/in/gastonzentner. E-mail: [email protected]
La inteligencia artificial (IA) ha dejado de ser una herramienta de ciencia ficción para convertirse en una realidad que atraviesa todos los sectores de la sociedad. Desde su definición en los años 50 como “la ciencia y la ingeniería de hacer inteligentes a las máquinas”, la IA ha evolucionado de ser un campo experimental a un componente indispensable en áreas como la medicina, la educación, la industria y, por supuesto, el derecho.
Este libro, “Inteligencia Artificial en el Derecho: Entre la Innovación y la Protección de Derechos”, reúne una selección de artículos publicados por elDial.com y otros inéditos que exploran la intersección entre la IA y el ámbito jurídico, proporcionando una visión exhaustiva sobre cómo esta tecnología está transformando la práctica legal y los sistemas judiciales.
La estructura del libro es rica y diversa, abarcando desde aspectos regulatorios hasta aplicaciones concretas de la IA en el campo jurídico. En sus capítulos iniciales, se profundiza en el marco normativo emergente, destacando la importancia de establecer regulaciones que equilibren la innovación tecnológica con la protección de los derechos fundamentales. Este enfoque pone de relieve cómo regiones como la Unión Europea y países como Japón y Estados Unidos están liderando la elaboración de marcos regulatorios que buscan gestionar los riesgos asociados a la IA, como la manipulación de datos, los sesgos algorítmicos y los riesgos para la privacidad. Estos análisis están complementados con perspectivas locales, incluyendo la evolución de las iniciativas regulatorias en América Latina y Argentina.
La primera sección del libro aborda la regulación de la IA, enfatizando la necesidad de una gobernanza efectiva y adaptativa. En este contexto, se destaca el papel pionero de la Unión Europea con su Ley de Inteligencia Artificial, aprobada en 2024. Este reglamento establece categorías de riesgo para los sistemas de IA, prohíbe ciertas aplicaciones perjudiciales y promueve la transparencia y la responsabilidad en el uso de tecnologías avanzadas. La normativa europea es presentada como un modelo de equilibrio entre la innovación y la protección de los derechos fundamentales, un desafío que otras regiones aún están tratando de superar.
Asimismo, se exploran las políticas adoptadas en otras jurisdicciones como Estados Unidos, Reino Unido, China y América Latina, ofreciendo un panorama global sobre las diferentes aproximaciones a la regulación de la IA. Por ejemplo, en Estados Unidos, el enfoque fragmentado y sectorial contrasta con la regulación integral de Europa, mientras que en países como Japón se aboga por un modelo intermedio que fomente la innovación sin descuidar los riesgos éticos y sociales.
Argentina también ocupa un lugar destacado en esta sección, con una revisión de los proyectos legislativos en curso y las recomendaciones para una IA confiable aprobadas en 2023. Este análisis subraya la necesidad de que los países en desarrollo adapten sus marcos regulatorios para responder a los desafíos y oportunidades que presenta la IA.
Otra temática crucial explorada en el libro es el impacto de la robótica y la IA en la gestión del riesgo. Aquí se abordan los desafíos legales asociados con la automatización, incluyendo la responsabilidad en casos de fallos o accidentes. Este apartado pone en evidencia cómo los avances en la robótica y la IA están redefiniendo conceptos jurídicos fundamentales, como la responsabilidad civil y la previsibilidad.
Un aspecto destacado es la necesidad de normativas que garanticen que la innovación tecnológica no comprometa los derechos de los ciudadanos. Por ejemplo, los sistemas autónomos en vehículos o drones representan un avance significativo, pero también plantean preguntas sobre quién es responsable en caso de que un algoritmo cometa un error con consecuencias catastróficas.
El libro dedica un capítulo al análisis del reconocimiento facial, una de las aplicaciones de IA más controvertidas en términos de privacidad y derechos humanos. Se examinan casos concretos como las propuestas de prohibición del uso policial de esta tecnología en Europa, debido a sus implicaciones éticas y legales. Este análisis revela cómo el reconocimiento facial tensa el viejo dilema entre libertad y seguridad, planteando preguntas fundamentales sobre los límites del poder estatal y el derecho a la privacidad.
En línea con este tema, otro capítulo explora la problemática de la protección de datos personales en la era de la IA. Se destacan los riesgos asociados con la recopilación y procesamiento de datos sin el consentimiento adecuado de los usuarios, así como la necesidad de establecer marcos legales que protejan la privacidad y los derechos digitales.
La relación entre la IA y la actividad judicial ocupa un lugar central en el libro. Los autores analizan cómo herramientas como ChatGPT y sistemas predictivos pueden contribuir a una justicia más eficiente y accesible. Desde la simplificación de sentencias hasta la valoración de pruebas periciales, la IA ofrece posibilidades transformadoras para mejorar los procesos judiciales y reducir los tiempos de resolución de casos.
Sin embargo, también se destacan los riesgos inherentes al uso de la IA en decisiones judiciales, como la opacidad de los algoritmos y la posible perpetuación de sesgos existentes. Este apartado subraya la importancia de garantizar que el uso de la IA en los tribunales sea transparente y sujeto a supervisión humana.
El libro cierra con una reflexión sobre las implicaciones éticas y legales de la IA en el ámbito de la propiedad intelectual y los derechos digitales. Se abordan temas como la creación de obras generadas por IA y los desafíos para el derecho de autor, así como la necesidad de desarrollar directrices éticas para garantizar un uso responsable de la tecnología.
En este sentido, se enfatiza la importancia de fomentar una cultura de transparencia y responsabilidad en el desarrollo de sistemas de IA, destacando cómo los sesgos algorítmicos y las decisiones automatizadas pueden impactar negativamente en los derechos humanos si no se gestionan adecuadamente.
Se analiza, finalmente el tema de la responsabilidad civil de la IA generada por las diversas aplicaciones en la industria automotriz y en general, basándose en diversas regulaciones y propuestas aún en análisis.
“Inteligencia Artificial en el Derecho: Entre la Innovación y la Protección de Derechos” no solo ofrece un panorama del estado actual de la IA en el ámbito jurídico, sino que también invita a reflexionar sobre el futuro de esta relación. Conjuntamente con el resto de los autores coincidimos en que la IA tiene el potencial de transformar profundamente la práctica legal y el sistema judicial, pero esto solo será posible si se establecen marcos normativos y éticos sólidos que equilibren la innovación con la protección de los derechos fundamentales.
La IA plantea preguntas que el derecho debe responder con urgencia:
¿Puede la IA razonar? ¿Repite como un loro o es un nuevo tipo de inteligencia diferente a la humana?
¿Cómo garantizar la transparencia y la rendición de cuentas en los sistemas automatizados?
¿Qué responsabilidad tienen los desarrolladores en caso de daños causados por un sistema de IA?
¿Cómo evitar que los sesgos inherentes a los datos perpetúen desigualdades existentes?
Este libro se posiciona como una guía imprescindible para abordar estos desafíos y aprovechar las oportunidades que ofrece la IA en el ámbito jurídico.
En definitiva, este libro no solo es un compendio de análisis y propuestas, sino también una invitación a construir un marco ético y normativo que permita a la sociedad beneficiarse plenamente de la inteligencia artificial sin comprometer los derechos y valores fundamentales que nos definen como humanos. Con ello, los autores instamos a asumir el desafío de regular y utilizar la IA de manera responsable, equilibrando la innovación con la protección de los derechos y el bienestar de todos.
Por mi intermedio agradecemos a todos por su valioso aporte para la concreción de esta obra.
Dr. Horacio R. Granero
Por Horacio R. Granero
El Parlamento Europeo aprobó el miércoles 13 de marzo 2024 la Ley de Inteligencia Artificial, que garantiza la seguridad y el respeto de los derechos fundamentales al tiempo que impulsa la innovación. El Reglamento, acordado en las negociaciones con los Estados miembros en diciembre de 2023, fue respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones.
Su objetivo es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo, impulsando al mismo tiempo la innovación y erigiendo a Europa en líder del sector. El Reglamento fija una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.
Las nuevas normas prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
También se prohibirán el reconocimiento de emociones en el lugar de trabajo y en las escuelas, los sistemas de puntuación ciudadana, la actuación policial predictiva (cuando se base únicamente en el perfil de una persona o en la evaluación de sus características) y la IA que manipule el comportamiento humano o explote las vulnerabilidades de las personas. El uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad queda prohibido a priori, salvo en situaciones muy concretas y bien definidas.
Los sistemas de identificación biométrica en tiempo real solo se podrán emplear si se cumplen una serie de salvaguardias estrictas; por ejemplo, su uso se limita a un período y lugar específicos y cuenta con una autorización judicial o administrativa previa. Entre estos casos pueden figurar la búsqueda selectiva de una persona desaparecida o la prevención de un atentado terrorista. Recurrir a estos sistemas a posteriori se considera un uso de alto riesgo, que requiere autorización judicial al estar vinculado a un delito penal.
También se prevén obligaciones claras para otros sistemas de IA de alto riesgo (debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho). Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones). Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.
Los sistemas de IA de uso general y los modelos en los que se basan deben cumplir ciertos requisitos de transparencia, respetar la legislación de la UE sobre derechos de autor y publicar resúmenes detallados del contenido usado para entrenar sus modelos. Los modelos más potentes que podrían plantear riesgos sistémicos deberán cumplir requisitos adicionales, como realizar evaluaciones de los modelos, analizar y mitigar los riesgos sistémicos e informar sobre los incidentes. Además, las imágenes, contenidos de audio o de video artificiales o manipulados (llamados comúnmente como deepfakes) deberán etiquetarse claramente como tales.
Habrá que poner a disposición de las Pymes y de las empresas emergentes espacios controlados de pruebas (llamados comúnmente sandbox) y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.
Durante el debate en el pleno del martes 12 de marzo, el coponente de la comisión de Mercado Interior Brando Benifei (S&D, Italia) dijo: “Finalmente tenemos la primera ley vinculante del mundo sobre inteligencia artificial, para reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia. Gracias al Parlamento, se prohibirán en Europa prácticas inaceptables de IA y se protegerán los derechos de los trabajadores y los ciudadanos. La nueva Oficina de IA ayudará a las empresas a respetar las normas antes de que entren en vigor. Nos aseguramos de que los seres humanos y los valores europeos estén en el centro mismo del desarrollo de la IA”. El componente de la comisión de Libertades Civiles Dragos Tudorache (Renew, Rumanía) agregó “La UE ofrece resultados. Hemos vinculado el concepto de inteligencia artificial a los valores fundamentales que constituyen la base de nuestras sociedades. Sin embargo, hay mucho trabajo por delante que va más allá de la propia Ley de IA. La IA nos empujará a repensar el contrato social en el corazón de nuestras democracias, nuestros modelos educativos, los mercados laborales y la forma en que llevamos a cabo la guerra. La Ley de IA es un punto de partida para un nuevo modelo de gobernanza construido en torno a la tecnología. Ahora debemos centrarnos en la aplicación práctica de la legislación”.(1)
El Reglamento aún está sujeto a una última comprobación jurídica-lingüística. Su aprobación definitiva (mediante el llamado procedimiento de corrección de errores) está prevista para antes del final de la legislatura, aproximadamente junio de 2024. La ley también debe ser adoptada formalmente por el Consejo y entrará en vigor veinte días después de su publicación en el Diario Oficial y será de plena aplicación veinticuatro meses después de su entrada en vigor, con excepción de: las prohibiciones de prácticas (se aplicarán seis meses después de la fecha de entrada en vigor); los códigos de buenas prácticas (nueve meses después); las normas sobre la IA de uso general, incluida la gobernanza (doce meses después), y las obligaciones para los sistemas de alto riesgo (treinta y seis meses después).
Dicho Reglamento se desarrolló con el objeto de “proteger los derechos fundamentales, la democracia, el Estado de Derecho y la sostenibilidad medioambiental frente a la IA de alto riesgo”. Al mismo tiempo, tiene como objetivo “impulsar la innovación y establecer a Europa como líder en el campo de la IA” y sus normas establecen obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto.
También se acordaron obligaciones claras para otros sistemas de IA de alto riesgo, que “podrían tener un impacto significativo en la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho.” Entre los usos de alto riesgo se incluyen los de infraestructuras críticas, educación y formación profesional, empleo, servicios esenciales (por ejemplo, asistencia sanitaria, banca), determinados sistemas de aplicación de la ley, migración y gestión de fronteras, justicia y procesos democráticos (por ejemplo, influir en las elecciones).
Los ciudadanos tendrán, además, derecho a presentar quejas sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.
En definitiva, hasta el momento, la norma posee las siguientes características:
Salvaguardias acordadas sobre la inteligencia artificial de propósito general
Limitación del uso de sistemas de identificación biométrica por parte de las fuerzas del orden
Prohibiciones de la puntuación social y la IA utilizadas para manipular o explotar las vulnerabilidades de los usuarios
Derecho de los consumidores a presentar quejas y obtener explicaciones significativas.
Como se expusiera oportunamente, podemos decir que en esta nueva fase de la IA generativa, los principios básicos de la adopción de la IA —como la gobernanza, la responsabilidad y la transparencia— son más importantes que nunca, al igual que la preocupación por las consecuencias de una IA mal aplicada, como por ejemplo, los algoritmos no controlados pueden dar lugar a resultados sesgados y discriminatorios, perpetuando las desigualdades y frenando el progreso de la diversidad de la mano de obra y la privacidad de los datos y las infracciones son otro motivo de preocupación, ya que pueden producirse fácilmente por la falta de anonimización y la recopilación de datos de los empleados.
La IA generativa también ha dado paso a nuevas consideraciones sobre la propiedad intelectual, planteando cuestiones en torno a la propiedad de las entradas y salidas de programas de terceros, y los consiguientes problemas de infracción de los derechos de autor, y se ha visto cómo los gobiernos y los reguladores se han apresurado a aplicar la legislación relacionada con la IA y los mecanismos de aplicación de la normativa, no siempre en forma positiva.
Las organizaciones que apliquen la IA generativa también deben asumir que los datos introducidos en las herramientas y consultas de IA serán recopilados por terceros proveedores de la tecnología. En algunos casos, estos proveedores tendrán derecho a utilizar y/o divulgar estos datos.
En definitiva, cada nuevo avance parece abrir interrogantes más rápido de lo que las organizaciones, los reguladores y los tribunales pueden responderlos. La IA generativa está cambiando el paradigma, y seguirán surgiendo riesgos en torno a casos de uso específicos. (2)
Para mantenerse a la vanguardia, las organizaciones tendrán que ir más allá de los enfoques aislados y aunar funciones bajo el paraguas de un sólido marco de gobernanza y las organizaciones deben preparar y seguir un marco de gobernanza interno que tenga en cuenta los riesgos empresariales en todos los casos de uso y permita a la empresa realizar de forma eficaz los ajustes de cumplimiento una vez que se identifiquen los problemas. Así, el riesgo para las empresas que no cuentan con una estructura de gobernanza de la IA y carecen de supervisión por parte de las principales partes interesadas, o que dependen en su totalidad de herramientas de terceros, es que el uso de herramientas de IA pueda generar responsabilidad jurídica para la organización (por ejemplo, demandas por discriminación). (3)
La conclusión es sencilla: La IA se está adoptando amplia y rápidamente y ofrece muchas ventajas. Pero se está extendiendo y desarrollando con tanta rapidez que la supervisión estratégica se vuelve aún más crítica para su uso responsable y la mitigación de riesgos, muchos no están preparados para la IA y subestiman los riesgos, lo que hace que la voluntad de desplegar esta tecnología sin las barreras adecuadas sea preocupante.
Afortunadamente, mediante el establecimiento de sólidas estructuras de gobernanza y supervisión se puede resistir estas mareas tecnológicas, independientemente de dónde se encuentren en su viaje hacia la IA.
Más allá de esto, la solución a largo plazo para gestionar los riesgos relacionados con la IA dependerá de que las partes interesadas del sector jurídico, regulador y privado unan sus fuerzas para impulsar la legislación, los códigos de prácticas o los marcos de orientación que reconozcan tanto las oportunidades como los riesgos que presenta la tecnología y aprovechar sus ventajas con más confianza.
Queda mucho trabajo para realizar, especialmente de parte de los investigadores y académicos que intenten solucionar algunas de las preguntas que se formulan, como, por ejemplo, ¿Cuál es la causa por la que la Ley no considera la necesidad de imponer la contratación de seguros en temas que se consideren de alto riesgo?
Se puede pensar que esta omisión se debe a varias razones, incluyendo la posibilidad de que se haya priorizado otros mecanismos de responsabilidad o gestión de riesgos, o que se considere que las regulaciones existentes en materia de seguros son suficientes o aplicables a los riesgos asociados con la IA. La ausencia de una mención directa a la necesidad de un seguro podría deberse a que la regulación busca abordar los riesgos asociados con la IA mediante un enfoque preventivo y de cumplimiento normativo, en lugar de centrarse en la mitigación de daños después de que estos ocurran.
Este enfoque puede estar orientado a garantizar que los sistemas de IA sean seguros y respetuosos con los derechos fundamentales desde su diseño y despliegue, reduciendo así la probabilidad de daños que necesitarían ser cubiertos por un seguro. Además, es posible que la legislación vigente en los Estados miembros de la UE o las políticas de seguro existentes puedan aplicarse o adaptarse para cubrir los riesgos específicos relacionados con la IA, sin necesidad de establecer mecanismos de seguro específicos dentro del marco de esta ley.
La decisión de no considerar específicamente la necesidad de un seguro en este contexto podría quizás reflejar un enfoque más amplio y holístico para la gestión de riesgos asociados con la IA.
No cabe dudas que la regulación de la IA es un campo complejo y en desarrollo, donde el equilibrio entre la innovación tecnológica y la protección de los ciudadanos es clave y nos introduce en el campo apasionante de la investigación legal.
1. https://www.europarl.europa.eu/news/en/press-room/20240212IPR17618/artificial-intelligence-act-committees-confirm-landmark-agreement
2. GRANERO, Horacio R, “La imperiosa necesidad de regular -bien- la inteligencia artificial (acerca de la Disposición 2/2023 de la Subsecretaría de la Información de la Jefatura de Gabinete)” (elDial.com - DC3229)
3. KATZENSTEIN, Krissy (Baker McKenzie) “Las organizaciones subestiman los riesgos asociados a la IA generativa ¿Cómo pueden prepararse?” https://es.weforum.org/agenda/2023/05/como-pueden-las-organizaciones-prepararse-para-la-ia-generativa/
Mapa de regulación actual sobre el uso de modelos de inteligencia artificial (“IA”) (4)
Por Raquel S. Mass y Roberto Docimo
En el año 1955 el científico informático, John McCarthy acuñó por primera vez el término “Inteligencia Artificial”, definiéndolo como “la ciencia y la ingeniería de hacer inteligentes a las máquinas”. Un año más tarde, organizó el Proyecto de Investigación de verano de Darmouth, EEUU, en IA, un encuentro que puede ser considerado como el lugar de nacimiento de este campo. Desde diversas perspectivas globales y sectoriales (gobiernos, sociedad civil e industrias) algunos países han elaborado documentos guía con definiciones de la IA, basados en que la naturaleza indeterminada del término IA representa grandes desafíos para el ecosistema regulatorio actual debido a la falta de una definición uniforme y legal de la IA.
En lo relativo a la regulación del uso de la IA en los distintos países del mundo existen en la actualidad diferentes niveles de avances. Algunos países han emitido documentos que no poseen carácter normativo, sino que se trata de recomendaciones o guías de uso práctico que sirven como apoyo a la hora de utilizar modelos basados en IA en los distintos campos en que se aplique.
De manera creciente se puede observar cómo, en los últimos años, muchos países han demostrado interés en establecer directrices y reglas que garanticen el uso ético, equitativo, seguro y confiable de la IA.
A fin de conocer cuál es la regulación vigente en el mundo, haremos una breve reseña de la situación actual en los países que, con mayor o menor nivel de evolución y alcance, han regulado el uso de herramientas que se basan en modelos de IA generativa.
En efecto, nos referiremos a la Unión Europea, Estados Unidos, Reino Unido, Australia, China, India y América Latina, siendo estos los países o regiones que poseen algún tipo de intervención normativa sobre el uso de la IA. Adicionalmente, haremos mención a las directrices dictadas por organizaciones internacionales sobre el particular hasta el momento.
En el marco de su estrategia digital, la UE ha sido pionera en proponer regulaciones específicas para la IA. Sus iniciativas concretas comienzan en el año 2018 cuando se presenta la primera estrategia europea para la IA. Posteriormente, la Comisión Europea publica en febrero de 2020 el llamado “White Paper” sobre IA, un enfoque europeo hacia la excelencia y la confianza. En sus considerandos se expresa que, a fin de enfrentar los desafíos y oportunidades que presenta la IA, la UE necesita actuar de forma unificada y marcar su propio camino, basándose en los valores de la UE con el objetivo de promover el desarrollo y el despliegue de la IA. Si bien destaca los potenciales beneficios de la IA, se enfoca en los riesgos que podría representar para los seres humanos, como por ejemplo la opacidad en la toma de decisiones, la discriminación basada en género u otros tipos, la intrusión en nuestras vidas privadas o su uso para fines delictivos.
En abril de 2021, la Comisión Europea presentó el proyecto de reglamento que busca establecer un marco legal regulador para la IA generativa, clasificando los sistemas de IA según su nivel de riesgo y estableciendo requisitos y obligaciones correspondientes a cada uno de dichos niveles. Esta regulación tiene una perspectiva humanista y se enfoca en garantizar la transparencia, la seguridad y los derechos fundamentales de los individuos (Parlamento Europeo-Artificial intelligence act).
Los distintos niveles de peligro implicarán una mayor o menor regulación. La finalidad es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales. (Noticias Parlamento Europeo, 2023).
En el mes de septiembre de 2022, la Comisión cumplió con los objetivos del White Paper propuesto en el 2020 y con la solicitud del Parlamento Europeo respecto de la Propuesta de Directiva de Responsabilidad de la Inteligencia Artificial (AILD, por sus siglas en inglés). El propósito de la AILD es mejorar el funcionamiento del mercado interno estableciendo normas uniformes para ciertos aspectos de la responsabilidad civil extracontractual por daños causados con la participación de sistemas de IA.
El día 9 de diciembre de 2023 las instituciones de la UE acordaron, luego de un arduo y extenso debate, los términos de la ley de IA que regula el uso de estas tecnologías en función del riesgo que suponga para las personas, siguiendo en líneas generales los alcances del proyecto de reglamento. Aún debe ser ratificado por el Parlamento Europeo y el Consejo de la UE.
Los puntos salientes son:
Definición de medidas de protección sobre la IA general;
Limitación en el uso de sistemas de identificación biométrica por parte de los organismos de seguridad;
Prohibición del “scoring” social y el uso de IA para manipular o explotar vulnerabilidades de los usuarios;
Derecho de los consumidores a presentar quejas y recibir explicaciones fundadas;
Multas que van desde 35 millones de euros o el 7% del volumen de negocios global, hasta 7.5 millones o el 1.5% del volumen de negocios a nivel global según la gravedad del hecho y la magnitud de la empresa (Officer, 2023).
La norma prevé la creación de la Oficina Europea de Inteligencia Artificial, que coordinará el uso de la tecnología entre las autoridades nacionales y que estará asesorada por un panel de científicos y de organizaciones de la sociedad civil. Está previsto que la ley entre en vigor en 2026 pero se aplicaría por fases: la oficina europea se crearía de forma inmediata, la prohibición de los sistemas prohibidos de IA se implementaría luego de transcurridos seis meses y los requisitos para los sistemas y modelos de IA generativa, a los 12 (EURO NEWS, 2023).
En dicha dirección la UE continúa avanzando y, a través de las Comisiones de Mercado Interior y de Libertades Civiles, en fecha 13 de febrero de 2024 se ha aprobado la Ley de Inteligencia Artificial en base al acuerdo provisional de los Eurodiputados en Comisión del 3 de febrero de 2024 (5). Esta legislación, como hemos visto, tiene como objetivo proteger los derechos fundamentales y promover la innovación en el ámbito de la IA, clasificando las aplicaciones de IA según su nivel de riesgo y estableciendo obligaciones correspondientes.
Se prohíben ciertas aplicaciones de IA consideradas amenazas para los derechos de los ciudadanos, como sistemas de categorización biométrica basados en características sensibles y la extracción no selectiva de imágenes para reconocimiento facial. La ley establece restricciones específicas para el uso de sistemas de identificación biométrica en tiempo real, permitiéndolo solo bajo condiciones estrictas.
También se establecen obligaciones para sistemas de IA de alto riesgo en sectores como infraestructuras críticas, salud, y justicia. Se garantiza el derecho de los ciudadanos a presentar quejas y obtener explicaciones sobre decisiones tomadas por estos sistemas automatizados. Los sistemas de IA de uso general deben cumplir con requisitos de transparencia y derechos de autor, y los contenidos manipulados deben ser claramente etiquetados.
La ley introduce «sandboxes regulatorios» para permitir a las PYMEs y startups desarrollar IA innovadora. Tras su adopción formal por el Parlamento Europeo y aprobación final por parte del Consejo, la ley será plenamente aplicable 24 meses después de su entrada en vigor, excepto por la prohibición de las prácticas prohibidas que se aplicarán luego de 6 meses de su entrada en vigor, los códigos de conducta serán aplicables a los 9 meses, las normas de IA de uso general a los 12 meses y finalmente las obligaciones para sistemas de riesgo alto a los 36 meses (6).
El 1° de agosto de 2024, entró en vigor el Reglamento (UE) 2024/1689 (7), conocido como la Ley de Inteligencia Artificial de la UE. Este reglamento establece un marco jurídico uniforme para el desarrollo, comercialización y uso de sistemas de IA en la UE, con el objetivo de promover una IA centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales.
En tal sentido, en octubre de 2024, España avanzó en la supervisión de la IA con la creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) (8). Esta agencia tiene como objetivo supervisar el mercado de la IA y certificar el cumplimiento del reglamento europeo, asegurando que los sistemas de IA utilizados en España sean seguros y respeten los derechos fundamentales.
El 17 de diciembre de 2024, el Comité Europeo de Protección de Datos (“CEPD”) emitió la Opinión N° 28/2024 (9) sobre el tratamiento de datos personales en el desarrollo y despliegue de modelos de IA. Este dictamen aborda cuestiones clave como la anonimización de datos, la legitimidad del interés legítimo como base legal para el tratamiento de datos personales y las implicaciones de tratamientos ilícitos.
Estas iniciativas reflejan el compromiso de la UE y sus Estados miembros para establecer un entorno regulatorio que equilibre la innovación tecnológica con la protección de los derechos fundamentales y la seguridad de los ciudadanos.
En los EE. UU., la regulación de la IA todavía se encuentra en una etapa incipiente y está principalmente enfocada en sectores específicos como la salud y el transporte. En contraposición a una regulación amplia y general, se han propuesto directrices y principios específicos en temas como la privacidad, la seguridad y la ética en la IA.
En el mes de octubre de 2022 se firmó “The Blueprint for an AI Bill of Rights” o el “Plan para una Ley de Derechos de la IA» que es una guía para la protección de la sociedad de las amenazas de la IA y que fomenta el uso de estas tecnologías de maneras que refuercen los valores más elevados de los ciudadanos de los EEUU (OSTP. Office of Science and Technology Policy, 2022).
En el mes de julio de 2023 EEUU ha anunciado tres nuevas medidas para intentar regular el uso y desarrollo de la IA. Se trata de un acuerdo entre las autoridades y las principales firmas dedicadas a esta tecnología. Entre los puntos acordados se incluye la garantía de la seguridad de los sistemas, con pruebas previas a su lanzamiento y transparencia en los resultados y la etiquetación de contenidos generados por medio de la IA (THE WHITE HOUSE BRIEFING ROOM, 2023). Entre las empresas que participaron en el acuerdo se encuentran OpenIA, Alphabet, Meta, Anthropic, Inflection, Amazon y Microsoft. Según el comunicado oficial de la Casa Blanca, son pasos vitales hacia adelante en el enfoque de EE.UU. sobre una IA segura, protegida y confiable. Asimismo, se indica que se requerirán más acciones, y la Administración del gobierno de Biden continuará trabajando con el Congreso para lograr una legislación bipartidista que ayude a EEUU a liderar el camino en la innovación responsable.
El 30 de octubre de 2023, el presidente Joe Biden emitió una orden ejecutiva (10) destinada a establecer normas generales para el uso y desarrollo de la IA en diversas industrias. Esta directiva enfatiza la importancia de utilizar la IA de manera segura y responsable, promoviendo un enfoque coordinado a nivel gubernamental. Entre los principios rectores se incluyen garantizar la seguridad, fomentar la innovación responsable, defender los derechos de los trabajadores estadounidenses y proteger la privacidad y las libertades civiles.
En octubre de 2024, la Casa Blanca anunció nuevas directrices para el uso de la IA por parte de las agencias de seguridad nacional y espionaje de EEUU. Estas normas buscan equilibrar las promesas de la tecnología con la necesidad de mitigar sus riesgos, estableciendo un marco diseñado para garantizar que las agencias puedan acceder a las herramientas de IA más avanzadas mientras se previene su uso indebido. Se prohíben aplicaciones que violen los derechos civiles o que automaticen el despliegue de armas nucleares, y se fomenta la investigación en IA y la seguridad de la cadena de suministro de chips informáticos.
A nivel estatal, se han presentado diversas iniciativas para regular la IA. Por ejemplo, en California, se propuso la Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Frontera (Ley SB 1047), con el objetivo de garantizar el desarrollo seguro de sistemas de IA a gran escala. Sin embargo, en septiembre de 2024, el gobernador de California, Gavin Newsom, vetó un proyecto de ley de seguridad de la IA que buscaba responsabilizar a los desarrolladores por los potenciales daños de sus modelos, reflejando las tensiones entre la necesidad de regulación y la promoción de la innovación tecnológica.
En octubre de 2024, el gobierno de Estados Unidos elaboró las bases para normas que limitan las inversiones estadounidenses en sectores tecnológicos clave en China, incluyendo la IA. Estas medidas, derivadas de un decreto del presidente Biden de agosto de 2023, buscan impedir que conocimientos técnicos estadounidenses ayuden al desarrollo de aplicaciones militares chinas, abarcando tecnologías como sistemas informáticos avanzados y aplicaciones de IA de última generación.
La postura de UK con relación a la regulación de la IA ha sido siempre abierta y libre ya que considerada un freno a la innovación y el desarrollo productivo. Muestra de ello es la elaboración de su White Paper denominado “Un acercamiento a la regulación de la IA favorable a la innovación” (“A pro- innovation approach to AI regulation”) publicado en el mes de marzo de 2023 que define un marco regulador de la IA cercano a la industria y que fomenta la confianza en la ciudadanía hacia la tecnología. El documento sugiere que la regulación adopte un enfoque más permisivo que restrictivo, al menos inicialmente, ya que los principios se emitirán sobre una base no estatutaria y serán implementados por los reguladores existentes. Se pretende colocar a UK en el mejor escenario para el desarrollo, las pruebas y uso de la tecnología. El documento enfatiza la necesidad de mantener a UK comercialmente competitiva al no adoptar un enfoque riguroso en la regulación, mientras trata de promover la confianza del público en la IA.
Al igual que la UE, UK posee también una guía de evaluación de impacto de regulación de la IA. El marco se diseñó para ser proporcional y adaptable, permitiendo a los reguladores especializados en diferentes sectores utilizar su experiencia para aplicar principios regulatorios de manera que se ajusten al contexto específico de uso de la IA. Se incluye la creación de un «sandbox» regulatorio que permitirá a los reguladores trabajar directamente con los innovadores y ayudarlos a llevar sus productos al mercado. El sandbox también facilitará la comprensión de cómo la regulación interactúa con las nuevas tecnologías y ajustar esta interacción cuando sea necesario.
El Ada Lovelace Intitute es un organismo de investigación independiente de UK cuya misión es asegurar que los datos y la inteligencia artificial (IA) funcionen para las personas y la sociedad. El instituto se enfoca en la distribución justa y equitativa de los beneficios de los datos y la IA, con un énfasis especial en mejorar el bienestar individual y social. El instituto ha emitido diversos documentos relevantes sobre la IA que abordan temas como la gobernanza inclusiva, la responsabilidad algorítmica, y la regulación, a la vez que proporcionan una base sólida para comprender los enfoques actuales y futuros hacia la gobernanza de la IA y sus implicaciones en la sociedad.
En abril de 2024, el Reino Unido y EEUU firmaron un pacto histórico para garantizar la seguridad en el desarrollo de la IA. Este acuerdo busca acelerar el trabajo de los institutos de seguridad de IA en ambos países, permitiendo a los gobiernos orientar de manera más efectiva sus políticas y regulaciones en este ámbito. La Secretaria de Comercio, Gina Raimondo, y la Secretaria de Tecnología británica, Michelle Donelan, firmaron en Washington un memorando de entendimiento para trabajar conjuntamente en el desarrollo de pruebas avanzadas de modelos de inteligencia artificial.