Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
La era de la Inteligencia Artificial Generativa ha llegado para revolucionar todas las esferas de nuestra sociedad, y el ámbito jurídico no ha sido la excepción. Los avances tecnológicos en este campo están generando un impacto sin precedentes, y pueden desencadenar una transformación profunda en la profesión legal. En la presente obra, especialistas en la materia nos adentran en un interesante análisis sobre las implicancias y desafíos que esta nueva era conlleva. Se abordan con detenimiento los retos más importantes que debemos superar como sociedad frente a la implementación de la Inteligencia Artificial Generativa. Es crucial comprender que su uso indiscriminado podría acarrear ciertos riesgos, afectando desde la forma en que trabajamos hasta el sistema educativo. Sin embargo, también se destacan las oportunidades que esta tecnología nos brinda, especialmente en el ámbito de la abogacía. La correcta aplicación de la IA generativa puede liberar a los abogados de tareas repetitivas y rutinarias, permitiéndoles enfocarse en aspectos más creativos e innovadores de su trabajo. La automatización de procesos como la búsqueda de precedentes y la generación de nuevas teorías legales ofrecen una valiosa oportunidad para que los profesionales amplíen su experiencia y aporten un mayor valor a sus clientes. No obstante, junto con las oportunidades surgen desafíos cruciales, y uno de los más apremiantes es el de la regulación de la IA Generativa. En este libro, se aborda exhaustivamente el tema, examinando las claves para establecer un marco ético y responsable que guíe la implementación y uso de esta tecnología.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 179
Veröffentlichungsjahr: 2023
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Horacio R. GraneroDirector
Autores
Horacio R. Granero - Juan Darío Veltani
Macarena Belén Mansilla - Antonella Stringhini
Ricardo Porto - Mariano Peruzzotti
Agustina Pérez Comenale - Camila Maranessi
y Gastón Zentner
Chat GPT : retos y oportunidades de la Inteligencia Artificial Generativa : desafíos de su regulación/ Horacio R. Granero ... [et al.]. - 1a ed. - Ciudad Autónoma de Buenos Aires : elDial.com, 2023.
Libro digital, EPUB
Archivo Digital: descarga y onlineISBN 978-987-48590-7-5
1. Derecho Informático. 2. Desarrollo Tecnológico. 3. Nuevas Tecnologías. I. Granero, Horacio R.
CDD 303.483
Queda rigurosamente prohibida, sin la autorización escrita de los titulares del copyright, bajo las sanciones establecidas por las leyes, la reproducción total o parcial de esta obra por cualquier medio o procedimiento, comprendidos la fotocopia y el tratamiento informático.
© 2023, Editorial Albremática S.A.
Primera edición
ISBN 978-987-48590-7-5
Digitalización: Proyecto451
Por Horacio R. Granero (*)
En el marco de la reciente Disposición 2/2023 que aprobó las “Recomendaciones para una Inteligencia Artificial Fiable”, el autor plantea la importancia de una regulación efectiva de la IA, tomando como punto de partida la experiencia extranjera y proponiendo la creación de sandboxes regulatorios, es decir, espacios desregulados para probar productos y servicios innovadores, que permitirían fomentar la innovación al reducir las barreras regulatorias y los costos de las pruebas de tecnologías disruptivas, al mismo tiempo que se garantizaría la protección de los consumidores.
1. El miedo a la Inteligencia Artificial
Hace varios años, en el Golfo de Méjico, a una plataforma submarina se le desencajó el tubo de succión de petróleo a gran profundidad y generó un desastre ecológico inconmensurable porque la empresa responsable no tenía los medios suficientes como para efectuar la reparación y así pasó largo tiempo hasta solucionar el grave problema. En esa oportunidad el presidente de Estados Unidos -Barak Obama- dictó una resolución prohibiendo la exploración petrolera por estos medios a profundidades mayores a las que se pudiera demostrar que la empresa era capaz de reparar una eventual fuga, como la que se había producido. Ante un riesgo cierto una resolución inmediata.
Con motivo de ese “miedo”, en este caso a que una inteligencia artificial (IA), especialmente la denominada “generativa”(1) como la que se presenta hoy día, pueda ser peligrosa para la humanidad surgieron varias regulaciones en diversos países. Dado lo delicado del tema y la complejidad que se genera por la simbiosis de la tecnología con el orden jurídico, conviene analizar primero el rol del Estado regulador en el mundo digital, y en especial, el abordaje de las nuevas tecnologías y su regulación. Así, podemos mencionar cinco tipos de desafíos de la regulación en esta temática:
a. El primero es la regulación analógica. El primer interrogante es: ¿debemos poner límites y condiciones a las tecnologías, pensando en tecnologías físicas o analógicas, y no digitales? En este sentido, podríamos representarla con una bandera roja, en semejanza a la Ley de Bandera Roja de Londres, que es la Ley de Locomotores de 1865, en donde se establecía que el hombre con la bandera roja se posicionaba delante del carruaje y obligaba a los vehículos a mantener el ritmo del paso de hombre (6 km/h). Lo que se quiere ejemplificar aquí es que no se puede regular de manera que se impida el desarrollo de las tecnologías.
b. El segundo tipo o desafío es la sobre-regulación, la que tampoco es propicia. Este modo adopta el legislador cuando, por moda o glamour, propone herramientas legales o regulación de categorías tecnológicas que hoy no existen.
c. El tercer tipo se encontraría en la tensión entre la regulación local vs. tecnologías globales. Desde luego, se trataría de una tensión de tipo geopolítico.
d. El cuarto desafío sería la creación de nuevas categorías jurídicas en clave digital. Sin embargo, hay que advertir que la creación de una regulación para cada nueva categoría digital, que no sea realizada de manera integral, podría alcanzar una fragmentación regulatoria, lo que implicaría obtener inseguridad jurídica.
e. Por último, parece interesante el abordaje desde el paradigma de sandbox regulatorios o legales (bancos de pruebas). Este concepto ha tomado relevancia en los últimos años en los ámbitos de las fintech o economía digital, y es también trasladable al ámbito legal. Los sandbox legales -como se verá más adelante- permitirían generar un espacio de modulación para promover innovación, desarrollando un ámbito de experiencia jurídica, ética y técnica sobre determinadas categorías en un entorno seguro.
2. ¿Cuándo es necesario regular la Inteligencia Artificial?
La Unión Europea -en forma similar al precedente de la plataforma submarina mencionada- propone generar un marco jurídico sobre la IA, que aborde los riesgos que esta pueda proporcionar a los desarrolladores, implementadores y usuarios de IA, al mismo tiempo que establece requisitos y obligaciones claros en relación con los usos específicos de la IA.
La propuesta forma parte de un paquete más amplio de IA, que también incluye el Plan coordinado actualizado sobre IA. Juntos, el marco regulador y el plan coordinado garantizarán la seguridad y los derechos fundamentales de las personas y las empresas en lo que respecta a la IA. A su criterio, la propuesta de un Reglamento sobre IA garantiza que los europeos puedan confiar en lo que la IA tiene que ofrecer. Si bien la mayoría de los sistemas de IA se limitan a ningún riesgo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.
Por ejemplo, a menudo no es posible averiguar por qué un sistema de IA ha tomado una decisión o predicción y ha tomado una acción en particular. Por lo tanto, puede ser difícil evaluar si alguien ha sido injustamente desfavorecido, como en una decisión de contratación o en una solicitud de un plan de beneficios públicos.
Aunque la legislación vigente proporciona cierta protección, no es suficiente para hacer frente a los desafíos específicos que pueden plantear los sistemas de IA.
El enfoque propuesto está basado en el riesgo que la IA puede generar y los divide en:
1. Riesgo inaceptable: Todos los sistemas de IA considerados una clara amenaza para la seguridad, los medios de vida y los derechos de las personas serán prohibidos, desde la puntuación social por parte de los gobiernos hasta los juguetes que utilizan la asistencia de voz que fomentan comportamientos peligrosos.
2. Alto riesgo: Los sistemas de IA identificados como de alto riesgo incluyen la tecnología de IA utilizada en:
a. infraestructuras críticas (por ejemplo, transporte), que podrían poner en peligro la vida y la salud de los ciudadanos
b. formación educativa o profesional, que puede determinar el acceso a la educación y al curso profesional de la vida de una persona (por ejemplo, la puntuación de los exámenes);
c. componentes de seguridad de los productos (por ejemplo, aplicación de IA en cirugía asistida por robot);
d. empleo, gestión de los trabajadores y acceso al trabajo por cuenta propia (por ejemplo, software de clasificación de currículums para los procedimientos de contratación);
e. servicios públicos y privados esenciales (por ejemplo, la calificación crediticia que deniega a los ciudadanos la oportunidad de obtener un préstamo);
f. aplicación de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluación de la fiabilidad de las pruebas);
g. gestión de la migración, el asilo y el control de fronteras (por ejemplo, verificación de la autenticidad de los documentos de viaje);
h. administración de justicia y procesos democráticos (por ejemplo, aplicación de la ley a un conjunto concreto de hechos).
i. sistemas de identificación biométrica, que están sujetos a requisitos estrictos. El uso de la identificación biométrica remota en espacios de acceso público con fines policiales estaría, en principio, prohibido.
Los sistemas de IA de alto riesgo estarán sujetos a obligaciones estrictas antes de que puedan comercializarse:
- sistemas adecuados de evaluación y mitigación de riesgos;
- alta calidad de los conjuntos de datos que alimentan el sistema para minimizar los riesgos y los resultados discriminatorios;
- registro de la actividad para garantizar la trazabilidad de los resultados;
- documentación detallada que proporcione toda la información necesaria sobre el sistema y su finalidad para que las autoridades evalúen su cumplimiento;
- información clara y adecuada para el usuario;
- medidas adecuadas de supervisión humana para minimizar el riesgo;
- alto nivel de robustez, seguridad y precisión.
3. Riesgo limitado: El riesgo limitado se refiere a los sistemas de IA con obligaciones específicas de transparencia. Al utilizar sistemas de IA como chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina para que puedan tomar una decisión informada de continuar o dar un paso atrás.
4. Riesgo mínimo o nulo: La propuesta permite el uso libre de IA de riesgo mínimo. Esto incluye aplicaciones como videojuegos habilitados para IA o filtros de spam. La gran mayoría de los sistemas de IA utilizados actualmente en la UE entran en esta categoría. Una vez que un sistema de IA está en el mercado, las autoridades están a cargo de la vigilancia del mercado, los usuarios garantizan la supervisión y el seguimiento humanos, y los proveedores cuentan con un sistema de seguimiento posterior a la comercialización. Los proveedores y usuarios también reportarán incidentes graves y mal funcionamiento.(2)
Consideramos conveniente que la elaboración y el diseño normativo sean cada vez más proactivos, dinámicos y sensibles. Para hacerlo, un enfoque regulatorio basado en principios éticos facilita un mayor grado de apertura y flexibilidad, y evita las dificultades propias de la casuística de un enfoque centrado en las reglas.
En la República Argentina se presentaron al Congreso proyectos de ley, como el aludido en mi reciente comentario en el que critiqué su contenido, por considerar que el mismo carecía de antecedentes académicos y doctrinarios necesarios ante un tema de tal naturaleza y que se limitaba a “ordenar a los creadores de sistemas de IA en cualquier etapa de su ciclo de vida”- a registrarlos en el Gabinete Científico-Tecnológico (GACTEC), organismo que -en caso de sancionase este proyecto de Ley- podrá “detener los avances de la investigación, desarrollo o aplicación cuando considere que se vulneran los principios y valores éticos”.
Otro intento de mayor envergadura fue la sanción de la Disposición 2/2023 de la Subsecretaría de Tecnologías de la Información de la Jefatura de Gabinete(3) en la que se aprobaron las “Recomendaciones para una Inteligencia Artificial Fiable”, a la manera de un manual se encuentra destinado a “brindar un marco para la adopción tecnológica de la inteligencia artificial centrada en el ciudadano y sus derechos, concibiendo su aspecto social y estratégico, asegurando un óptimo funcionamiento de la prestación de servicios y un enfoque ético”(4). El documento hace especial hincapié en la “Gobernanza y colaboración adaptativas de múltiples partes interesadas. La participación de las diferentes partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para garantizar enfoques inclusivos en la gobernanza de la IA. Entre estas se encuentran, los gobiernos, las organizaciones intergubernamentales, la comunidad técnica, la sociedad civil, los investigadores y los círculos universitarios, los medios de comunicación, los responsables de la educación, los encargados de formular políticas, las empresas del sector privado, las instituciones de derechos humanos y los organismos de fomento de la igualdad, los órganos de vigilancia de la lucha contra la discriminación y los grupos de jóvenes y niños, entre otros”(5), razón por la cual se ha abierto un amplio debate de ideas en el que participan sectores de ámbito público y privado.
Prueba de ello fue el encuentro realizado el 5 de junio de 2023 en la Sala 2 de Comisiones de la Honorable Cámara de Diputados de la Nación en el que, a instancias de la Diputada Nacional Mabel Lucía Caparrós se invitó a “instalar en el Congreso el tema de la regulación de la IA”(6), en el que participaron a lo largo de cuatro horas especialistas, legisladores, catedráticos y magistrados en un nutrido debate en el que se explicaron los alcances de la Disposición 2/23 y se invitó a la comunidad civil a participar de la iniciativa.
3. El sandbox regulatorio como punto de partida para una regulación eficaz
Dada la experiencia extranjera en el tema, consideramos de utilidad la creación de “areneros” (sandbox) regulatorios, como se mencionara anteriormente, es decir, un espacio desregulado para la prueba de productos y servicios innovadores, sin la obligación de cumplir con el conjunto aplicable de normas y regulaciones, fomentando, primordialmente la innovación mediante la reducción de las barreras regulatorias y los costos de las pruebas de tecnologías innovadoras disruptivas, al tiempo que se garantiza que no se generen externalidades negativas para los consumidores.
Para ello se requiere que la prueba tenga un período limitado, la existencia de un número de clientes lo suficientemente grande como para generar información estadísticamente relevante sobre el producto o servicio, la divulgación previa para que los clientes estén en conocimiento de la prueba y cualquier compensación disponible y el conocimiento de los indicadores a utilizar durante el período de prueba.
En la medida en que la tecnología tenga consecuencias que fluyan a la vida cotidiana, estará abierta a la discusión, la supervisión y el control democráticos. El derecho a participar en los debates regulatorios puede ayudar a crear un sentido de legitimidad que justifique la normativa.
En España se intenta implementar la creación de un sello nacional que certifique la seguridad y calidad de los proyectos que usen inteligencia artificial adjudicando recientemente a Deloitte y a OdiseIA, una asociación centrada en el impacto ético de la IA(7), la generación de los criterios técnicos que las empresas deben seguir para obtener este sello, así como desarrollar varias herramientas para facilitar el proceso de certificación. Esto incluye la creación de un software con el que las empresas puedan autoevaluar la seguridad y calidad de sus desarrollos y la apertura de una vía para que otras compañías puedan otorgar el sello.(8)
Se espera que los trabajos técnicos para la creación del sello finalicen para mediados de 2024 y el sello tendrá un carácter voluntario y su desarrollo se adaptará al contenido final del Reglamento Europeo de Inteligencia Artificial. La normativa establecerá una clasificación de riesgos con requisitos de seguridad crecientes conforme aumenta la posibilidad de que el uso de la IA vulnere derechos fundamentales.
Los adjudicatarios harán un seguimiento de los proyectos de las empresas que accedan al piloto de IA que el gobierno pretende poner en marcha para testar el reglamento europeo. El objetivo de este proyecto es testear el reglamento europeo antes de su aprobación para analizar la existencia de aspectos que son inaplicables o entorpecen el avance tecnológico.
El Real Decreto, aún en elaboración contempla la regulación de un “entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de IA”, entendiendo como tal “un entorno, con una duración determinada, que proporciona un contexto estructurado para el desarrollo de las actuaciones necesarias que posibiliten a los sistemas de inteligencia artificial de alto riesgo cumplir con los requisitos establecidos en este Real Decreto, bajo la supervisión del órgano competente” (art. 3º inc. 3º), o sea, un “sandbox regulatorio”.
Ello se encuentra en consonancia con lo regulado en el Acuerdo de compromiso del Parlamento Europeo sobre regulación de la IA del 11 de mayo 2023. Con dicho acuerdo se busca garantizar un desarrollo ético y centrado en el ser humano de la IA en Europa, con normas de transparencia y gestión de riesgos para los sistemas de IA. Con lo que se pretende garantizar que los sistemas de IA sean supervisados por personas, sean seguros, trazables, no discriminatorios y respetuosos con el medio ambiente, buscando una definición uniforme para la IA diseñada para ser neutral desde el punto de vista tecnológico, de modo que pueda aplicarse a los sistemas de IA de hoy y de mañana.
Las reglas siguen un enfoque basado en el riesgo y establecen obligaciones para los proveedores y usuarios en función del nivel de riesgo que pueda generar la IA. Los sistemas de IA con un nivel inaceptable de riesgo para la seguridad de las personas estarían estrictamente prohibidos, incluidos los sistemas que despliegan técnicas subliminales o deliberadamente manipuladoras, explotan las vulnerabilidades de las personas o se utilizan para la puntuación social (clasificando a las personas en función de su comportamiento social, estatus socioeconómico y características personales).
Los eurodiputados modificaron sustancialmente la lista para incluir prohibiciones de usos intrusivos y discriminatorios de los sistemas de IA, tales como:
a. Sistemas de identificación biométrica remota “en tiempo real” en espacios de acceso público;
b. Sistemas de identificación biométrica a distancia “Post”, con la única excepción de la aplicación de la ley para el enjuiciamiento de delitos graves y solo después de la autorización judicial;
c. Sistemas de categorización biométrica que utilizan características sensibles (por ejemplo, género, raza, etnia, estado de ciudadanía, religión, orientación política);
d. Sistemas policiales predictivos (basados en la elaboración de perfiles, la ubicación o el comportamiento delictivo pasado);
e. Sistemas de reconocimiento de emociones en la aplicación de la ley, la gestión de fronteras, el lugar de trabajo y las instituciones educativas; y
f. Raspado indiscriminado de datos biométricos de redes sociales o imágenes de CCTV para crear bases de datos de reconocimiento facial (violando los derechos humanos y el derecho a la privacidad).
Los eurodiputados ampliaron la clasificación de las zonas de alto riesgo para incluir los daños a la salud, la seguridad, los derechos fundamentales o el medio ambiente de las personas. También agregaron sistemas de inteligencia artificial para influir en los votantes en campañas políticas y en sistemas de recomendación utilizados por las plataformas de redes sociales (con más de 45 millones de usuarios bajo la Ley de Servicios Digitales) a la lista de alto riesgo.
La nueva ley promueve sandboxes regulatorios, o entornos controlados, establecidos por las autoridades públicas para probar la IA antes de su implementación y se impulsa el derecho de los ciudadanos a presentar quejas sobre los sistemas de IA y recibir explicaciones de decisiones basadas en sistemas de IA de alto riesgo que afectan significativamente sus derechos. Los eurodiputados también reformaron el papel de la Oficina de IA de la UE, que tendría la tarea de supervisar cómo se implementa el reglamento de IA.
4. Experiencias de uso de sandbox regulatorio
4.1 Mejoramiento del acceso a la Justicia en Estados Unidos
Para ensayar cambios regulatorios en la profesión de la abogacía el estado norteamericano de Utah lanzó en 2019 un sandbox que lideró su tribunal supremo, que no obstante ha decidido trabajar en conjunto con la entidad estadual equivalente a un colegio público de abogados. La iniciativa parte de un cuidadoso examen de la situación de los servicios jurídicos, cuyos resultados fueron expuestos en un informe diagnóstico muy riguroso(9) que indicó que en los Estados Unidos más del 80% de la los encuestados afirmó haber tenido necesidades legales insatisfechas, lo que obedecería al hecho que en ese país el servicio de la abogacía es muy caro, y en tal sentido se propuso el ejercicio del derecho de litigar pro se (sin abogados) en asuntos no penales.(10) Como resultado del experimento se han otorgado licencias temporarias a varias empresas que prestan servicios legales de manera innovadora. Por una pequeña suma mensual hay plataformas que permiten crear contratos y acceder a consultas virtuales. Algunas ofrecen también servicios tradicionales a un costo horario menor.(11)
La American Bar Association (ABA) adoptó, por su parte, la Resolución 604, que aborda la necesidad de responsabilidad, transparencia y trazabilidad en el uso de la inteligencia artificial (IA). La resolución fue presentada en la Reunión ABA 2023 por Lucy Thomson, miembro fundador del Grupo de Trabajo Legal de Ciberseguridad y pide a las organizaciones que sigan pautas específicas para mejorar la IA y usarla de manera responsable y confiable y deben ser responsables de las consecuencias de su uso de la IA y tomar medidas razonables para prevenir daños o lesiones. Los desarrolladores también deben garantizar la transparencia y la trazabilidad de la IA y proteger la propiedad intelectual relacionada. El informe de la resolución también enfatiza la importancia de la trazabilidad para garantizar una IA confiable. Si la IA da como resultado resultados indeseables, la trazabilidad ayuda a los desarrolladores a comprender qué salió mal y cómo prevenir problemas similares en el futuro. La responsabilidad legal debe recaer en individuos y organizaciones responsables en lugar de en computadoras o algoritmos. La ex presidenta de ABA, Laurel Bellows, con relación a la Resolución 604, enfatizó igualmente que los abogados son responsables de mantenerse informados sobre temas relacionados con la IA.
4.2 Regulación de los servicios de transportes con plataforma digital y los taxis en Mendoza, Argentina