Inteligencia artificial y ciberdelito: realidad y retos para las modernas ciencias penales y la criminología. - Yoruanys Suñez Tejera - E-Book

Inteligencia artificial y ciberdelito: realidad y retos para las modernas ciencias penales y la criminología. E-Book

Yoruanys Suñez Tejera

0,0
8,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Primer texto de inteligencia artificial (IA) en Cuba relacionado con las ciencias penales y la criminología. Primer libro también en tratar el tema ciberdelito. La valía del texto más que nada es centrar la atención en la realidad que ha llegado para quedarse y de la cual no escapa el derecho. En una nueva sociedad digital regida por las tecnologías de la información y las comunicaciones (TIC), y muy especial la IA, considerada como la más disruptiva, utilizada tanto para hacer bien como para causar daño, surge el ciberdelito. Razones por las que resulta de interés adentrarnos en la realidad y los retos que ambos representan para las ciencias penales y la criminología.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB
MOBI

Seitenzahl: 475

Veröffentlichungsjahr: 2024

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Quedan rigurosamente prohibidas, sin la autorización escrita de los titulares del Copyright, bajo la sanción establecida en las leyes, la reproducción parcial o total de esta obra por cualquier medio o procedimiento, comprendidos la reprografía y el tratamiento informático, y la distribución de ejemplares de ella mediante alquiler o préstamo público. Si precisa obtener licencia de reproducción para algún fragmento en formato digital diríjase a CEDRO (Centro Español de Derechos Reprográficos,www.cedro.org) o entre la webwww.conlicencia.comEDHASAC/ Diputació, 262, 2º 1ª, 08007 Barcelona.Tel. 93 494 97 20España.

Edición y corrección: María de los Ángeles Navarro González

Diseño de cubierta: René M. Alfara Leyva

Diseño interior y composición: Idalmis Valdés Herrera

 

 

Todos los derechos reservados

©Colectivo de autores, 2024

© Sobre la presente edición:

Organización Nacional de Bufetes Colectivos, ONBC, 2024

 

 

Prohibida la reproducción parcial o total de esta obra, por cualquier medio o procedimiento, sin la autorización expresa de la Organización Nacional de Bufetes Colectivos.

 

 

ISBN 9789597261766

 

 

Ediciones ONBC

Ave. 41 n.o7208, esq. a 72,

Playa, La Habana, Cuba

Teléfono: 72144208

E-mail:marí[email protected]

 

Índice de contenido
Prólogo
La inteligencia artificial ética y fiable para todos los ciudadanos
Introducción
Pensar el derecho para la transformación digital asistido por la IA
El ciudadano de la sociedad digital y en red. Ética y derechos humanos
La implementación de la IA supone un reto ético
Conclusiones
Referencias bibliográficas
La regulación de la inteligencia artificial en la Unión Europea: un análisis crítico del reglamento
Introducción
La aproximación de la Unión Europea a la inteligencia artificial
Contexto
El enfoque de la Unión Europea de la inteligencia artificial
El Libro Blanco sobre la inteligencia artificial
La Declaración europea sobre los Derechos y Principios Digitales para la Década Digital
El Reglamento sobre inteligencia artificial
Conclusiones
Referencias bibliográficas
La ciberdelincuencia como amenaza para la seguridad nacional de Rusia
Introducción
Problemas actuales de la ciberdelincuencia como amenaza para la seguridad nacional de Rusia
Marco legal aplicable a la ciberdelincuencia en Rusia
Dinámica de la ciberdelincuencia
Conclusiones
Referencias bibliográficas
La inteligencia artificial aplicada a la prevención situacional como estrategia para prevenir el ciberdelito
Introducción
El ciberdelito o conducta realizada en el ciberespacio
La prevención situacional del delito
Críticas formuladas a la prevención situacional
La prevención situacional del ciberdelito
Inteligencia artificial
La inteligencia artificial aplicada en la prevención situacional del ciberdelito
Conclusiones
Referencias bibliográficas
Enfoque de género en los estudios sobre inteligencia artificial y ciberdelito
Introducción
Las brechas de género y la digitalización
Las políticas públicas y la brecha de género digital
Elementos para enfrentar las desigualdades de género en la IA
Las manifestaciones de violencia de género digital o la ciberviolencia de género
Conclusiones
Referencias bibliográficas
Inteligencia artificial y derecho penal ¿será necesario un nuevo concepto de delito?
Introducción
La IA. Una necesaria definición accesible al jurista
La responsabilidad penal de la IA: ¿persona natural, jurídica o electrónica?
La IA en la teoría del delito: se pone a prueba la capacidad del sistema
Conclusiones
Referencias bibliográficas
Estudios de derecho penal económico de hoy e Inteligencia Artificial (IA). Sus desafíos
Introducción
El derecho penal económico, concepto, y objeto de protección
Objeto de tutela o protección al bien jurídico
La inteligencia artificial, conceptualización y desarrollo
Los desafíos del derecho penal económico y la inteligencia artificial. Implementación de IA a manera de herramientas como programas de cumplimiento, alertadores y normas ISO
Conclusiones
Referencias bibliográficas
Algunas reflexiones sobre la eventual aplicación de la inteligencia artificial en la toma de decisiones en sede judicial en España: la máquina de juzgar
Introducción
Aproximación al concepto de inteligencia artificial
La conjugación de la inteligencia artificial y el principio de independencia judicial
¿Sería imparcial un sistema de inteligencia artificial capaz de decidir conflictos en sede judicial?
Conclusiones
Referencias bibliográficas
Inteligencia artificial contra ciberdelito: examen de la evidencia digital y su inclusión en el proceso penal cubano
Introducción
La prueba digital como medio de prueba
La inteligencia artificial aplicada en el examen de la evidencia digital
Inteligencia artificial: características
La inteligencia artificial aplicada en el examen de la evidencia digital en los delitos informáticos y el ciberdelito
Conclusiones
Referencias bibliográficas
El uso de la inteligencia artificial en los procesos penales rusos en el marco de las investigaciones penales: problemas y perspectivas
Introducción
Aspecto técnico de la prueba
Aspecto procesal de la prueba
Aspecto creativo de la prueba
Conclusiones
Referencias bibliográficas
De la digitalización hacia la inteligencia artificial en el sistema penitenciario cubano. Antecedentes, realidad y futuro
Introducción
La aplicación de la inteligencia artificial en los sistemas penitenciarios
El sistema automatizado en la actividad penitenciaria en Cuba
Inicios
Etapas de desarrollo
Resultados obtenidos tras la automatización de la actividad penitenciaria en Cuba
La inteligencia artificial del sistema penitenciario cubano
Futuro de la IA en el sistema penitenciario
Conclusiones
Referencias bibliográficas
Anexo 1
Anexo 2
Anexo 3
Revolucionando las aulas: digitalización e inteligencia artificial al servicio de la enseñanza del derecho penal
Introducción
Actualidad de los avances tecnológicos. Irrupción de la inteligencia artificial en las diferentes esferas del desarrollo social y su repercusión en la enseñanza del derecho
Derecho a la educación en la era digital, retos que impone la tecnología en la enseñanza del derecho penal
Conclusiones
Referencias bibliográficas
Datos de los autores

Prólogo

Vivimos el comienzo de una nueva era: La que está definiendo la inteligencia artificial (IA), que ha llegado a nuestras vidas apenas sin darnos cuenta, pero de forma definitiva. Hay muchas actividades de nuestra actividad diaria que han cambiado drásticamente en los últimos años y que ya no sabríamos hacerlas sin el soporte de algún dispositivo o sistema basado en IA, lo cual provoca un cambio social y cuya versión final nadie se atreve a predecir.

Pero la irrupción de la IA no ha sido, ni es controlada, organizada y mucho menos supervisada, porque no está regulada. Tampoco esta es la única variable a tener en cuenta en el nuevo marco social que está surgiendo, y al que acertadamente se le suele denominar “digital”, porque estamos construyendo la nueva “sociedad digital” —sin dudas marcada por las tecnologías de la información y las comunicaciones (TIC)— entre las que se encuentra la IA, que, a ciencia cierta, es la más disruptiva de todas ellas.

La disrupción que produce la IA, y lo que es peor, los efectos que imaginamos producirán, hace que muchos nos planteemos varias interrogantes: ¿Están en riesgo algunos empleos de los que conocemos hoy? ¿Seremos capaces de controlar el uso negligente de los sistemas basados en IA, como ocurre con la desinformación? ¿Podrá la IA ayudarnos a encontrar mejores soluciones para paliar los problemas de salud, de sequía, etc.? ¿El papel que desempeñan las grandes corporaciones que están desarrollando los modelos más avanzados de IA es bienintencionado? ¿Es IA todo lo que llega a nuestras manos con ese nombre? Y pudiera haber más cuestionamientos, entre los que no son menores los asociados al ámbito jurídico.

El encontrarnos en pleno desarrollo de la era digital, donde todo avanza y evoluciona vertiginosamente, hace que cada día surjan nuevos conceptos y definiciones, los cuales abren ante nosotros un amplio muestrario de palabras técnicas, que provocan perplejidad, confusión y temor por su desconocimiento, y su uso indebido puede llevarnos a escenarios que ni estaban previstos ni eran deseables. Esto sucede con los conceptos previos y básicos de digitalización y transformación digital, que en muchas ocasiones se confunden, cayendo en el error de creerlos como sinónimos, cuando esto no es así.

La digitalización de un sistema, ya sea sanitario, financiero o jurídico, requiere como paso previo la disponibilidad de equipamiento digital (computadores, impresoras, escáneres, etc.), a partir del cual se pueda realizar la conversión de información al formato digital, típicamente disponible en papel. Por su lado, la transformación digital supone la implementación de procesos que actualicen las herramientas y los objetivos del sistema a un mundo ya digitalizado. Dicho de otro modo, la digitalización consiste en convertir la información de un formato físico a uno digital, mientras que la transformación digital consiste en la integración de tecnología digital en un sistema para mejorar su eficiencia y descubrir nuevas oportunidades de desempeño y desarrollo. En cualquier caso, tanto la digitalización como la transformación digital son dos caras de una misma moneda: ambas se complementan y sin la primera no se puede dar la segunda.

En el caso concreto del ámbito jurídico, del derecho, la digitalización supone un doble reto. En primer lugar, el derecho tiene que abordar la digitalización como uno de sus objetos. Esto incluye cuestiones como, por ejemplo, la propiedad de los datos, la responsabilidad de los sistemas autónomos o la personalidad jurídica de la IA. El principal problema del derecho como sujeto de la digitalización es que esta plantea retos a los que la legislación apenas puede hacer frente. Evidentemente la ausencia de una regulación específica relativa a una determinada tecnología, como puede ser el caso de la tecnología digital, no significa que dicha tecnología opere al margen del derecho. Pero los tribunales que deciden sobre casos específicos relacionados con la tecnología digital no están en condiciones de remitir a las partes litigantes a la futura legislación. Por el contrario, los tribunales tienen que resolver los casos que se les presentan y aplicar la legislación vigente, lo que es consecuencia del principio de separación de poderes. Ahora bien, este “derecho de la digitalización” debe distinguirse del segundo reto, la “digitalización del derecho” propiamente dicha, que se refiere a la medida en que la tecnología puede utilizarse para optimizar el trabajo jurídico, en particular mediante la interpretación y aplicación de la ley por medio de computadores.

Como se explica en la “Guía para la Justicia Digital” (https://cotec.es/proyecto/guia-para-la-justicia-digital/182601b7-86e5-af12-eca0-00de51e7a833), en el contexto jurídico la transición digital conlleva la incorporación al sistema judicial de herramientas que permiten la digitalización de procedimientos, la celebración de audiencias telemáticas o incluso la toma de decisiones sin intervención humana mediante el empleo de sistemas basados en IA. La intervención de las nuevas herramientas digitales en un nuevo diseño del sistema de justicia constituye un elemento fundamental para favorecer la mejora del acceso a la justicia, la prevención y contención de litigios, una gestión más eficiente de los casos (en forma de simplificación de los trámites, de agilización de los tiempos judiciales y de reducción de costes) y la eliminación de barreras físicas y temporales, así como la disminución de traslados, demoras y costes emocionales. Pero para ello hay que capacitar a los usuarios y dotarlos del necesario equipamiento, porque es obvio que, si la ciudadanía no cuenta con los medios necesarios en sus casas y sus trabajos, y, sobre todo con la formación adecuada para poder hacer uso de ellos, la transición puede concluir en un rotundo fracaso.

En definitiva, el impulso público a la digitalización de la justicia hace preciso identificar la situación tecnológica de partida, tomar conciencia de las posibilidades y límites de los adelantos tecnológicos, revisar las experiencias más innovadoras y evaluar el impacto del diseño y uso de las herramientas tecnológicas sobre el contenido de los derechos reconocidos por el marco de convivencia básico. Por ello, en el escenario definido por la digitalización y el derecho, o viceversa, pueden tenerse en cuenta dos grandes espacios. Uno que identifica los retos fundamentales de la tecnología digital, considerando principalmente las amenazas que la digitalización plantea para el derecho tal y como lo conocemos hoy en día. El otro espacio aborda ciertas tecnologías digitales concretas, si bien desde un punto de vista descriptivo que incide en las oportunidades que ofrecen las nuevas tecnologías.

En general, siquiera solo sea circunscrito a las modernas ciencias penales y la criminología, el reto es tan formidable como necesario de superar y, por ello, porque cualquier ayuda ha de ser bienvenida en un territorio como este sin explorar y, además, cambiante cada hora, la pertinencia de este libro en estos momentos está más que justificada. La coordinadora del texto, con acierto, ha reunido un conjunto de interesantes aportaciones que se sitúan en la intersección entre el derecho de la digitalización y la digitalización del derecho, relacionando ambos enfoques, pero que mantienen analíticamente separados los ámbitos de la tecnología y del derecho para mostrar en conjunto que este último, como instrumento regulador de la digitalización y como objeto de la propia digitalización, es capaz de hacer frente a los retos que plantea la digitalización y en particular la IA. Por eso el hilo conductor de los doce capítulos que se recogen en este volumen es que la tecnología decide lo que la digitalización hace posible, pero que el derecho decide hasta qué punto la digitalización es legal.

Las contribuciones, que se recogen en el libro en forma de capítulos, se deben a autores de cuatro países distintos (Colombia, Cuba, España y Rusia), afiliados a siete universidades diferentes y a un grupo empresarial; en conjunto dan una visión panorámica y multifacética del tema enfocado que, en síntesis, abordan aspectos tan trascendentales y actuales como el derecho penal y la digitalización, el ciberdelito y la ciberdelincuencia, el comportamiento ético y fiable de la IA, el enfoque de género en toda esta temática, la regulación de la IA y la toma de decisiones en sede judicial o el manejo de las evidencias.

Si la digitalización está antes que el derecho, o viceversa, es un debate abierto, multisectorial y poliédrico que requiere toda nuestra atención, porque si bien la IA ha venido para quedarse, adonde ha llegado ya estaba el derecho, que no puede inhibirse de los cambios que las nuevas tecnologías conlleven. Desde este punto de vista, el libro que tenemos entre manos es una importante aportación a este campo de trabajo, que abre múltiples líneas de investigación y reflexión para todas las personas interesadas en el tema.

 

José Luis Verdegay

Profesor emérito de la Universidad de Granada, España

La inteligencia artificial ética y fiable para todos los ciudadanos

Yarina Amoroso Fernández1

Resumen: La correlación transformación digital e inteligencia artificial (IA), y su relación con el derecho, son claves hermenéuticas de la sociedad digital. Los algoritmos y sistemas de IA deben ser justos, transparentes y respetuosos con los derechos humanos. La ética en la IA es fundamental para una adopción segura y fiable para todos, asegurando que la tecnología sirva al bien común y no perjudique a la sociedad ni a los individuos. Hay que establecer protocolos para evitar sesgos discriminatorios y promover la confianza en estas tecnologías. Los ciudadanos deben estar informados sobre cómo se utiliza la IA y participar en su desarrollo.

Palabras claves: Transformación digital, inteligencia artificial, ética digital, LegalTehc y sociocibernética.

Introducción

Asistimos a la transformación digital imbricada en la trama de la llamada Revolución 4.0. (Reyes, 2023) en cuyo contexto se pueden aprovechar las sinergias entre diversas tecnologías, los grandes volúmenes de datos que se acumulan (big data), el Internet de las cosas (IoT), la robótica, pero ninguna relación es tan transcendental como la que le aporta la IA (Piñeiro, 2024).

El término inteligencia artificial se establece en el año 1956 (Moor, 2006) y durante muchos años se enmarcó en el trabajo científico o académico, o en la ciencia ficción. Hoy la realidad es totalmente diferente; ha salido de los laboratorios y las aulas para estar presente en toda la actividad de la sociedad moderna. Convivimos con la IA aun cuando no seamos conscientes de ello.

Este cambio ha sido producto de la combinación de los avances en los métodos de aprendizaje automático, la creciente cantidad de datos y el incremento de la potencia computacional. A la vez, las aplicaciones de la IA se han vuelto más compactas, efectivas, baratas, y por eso más usadas con frecuencia. Crear sistemas inteligentes sofisticados requiere una sustancial potencia de cómputo, pero usarlos generalmente no.

La IA no es solo una tecnología habilitadora de la transformación digital, sino que la misma transformación digital habilita el desarrollo y las nuevas aplicaciones de la IA. Igual que no hay desarrollo socioeconómico sin transformación digital, no hay transformación digital sin el desarrollo de la IA (Hidalgo, 2024). Según la CEPAL (2023) los reportes de tendencia, señalan a la IA, como la tecnología de mayor impacto estratégico, especialmente la de tipo generativa, de manera que la transformación digital (TD) está habilitada en buena medida por la inteligencia artificial y existe entre ellas una estrecha relación.

Estas relaciones implican personas de diferentes profesiones con disímiles competencias e incorpora a la ciudadanía por lo que se requiere ajustar todo el mecanismo sociocibernético en función de preservar valores y aprovechar las ventajas para impulsar el desarrollo sostenible. También con el objetivo de proteger la dignidad humana como valor supremo hay que establecer las bases normativas para ordenar los procesos y soportar la gestión de riesgos porque la IA, según Francisco Herrera, es portadora de implicaciones éticas, sociales, económicas y políticas (Herrera, 2023).

Por ello, es que afirmamos que se abre una nueva ventana en todas las áreas funcionales y especializadas del derecho pues el carácter disruptivo de la IA desafía conceptos y categorías largamente consolidados. Esto exige repensar profundamente las instituciones jurídicas y adaptarlas al contexto de una sociedad en transformación digital que impacta el propio desempeño de las organizaciones jurídicas, las que pueden ser asistidas, a su vez, por soluciones de IA. Por lo que es necesario reflexionar sobre el derecho que estos tiempos reclaman y así asegurar los cauces legítimos para su uso de forma ética, transparente y explicable; además, favorecer la realización de su desarrollo como disciplina.

A continuación, se comparten reflexiones que pretenden sistematizar en apretada síntesis diferentes aspectos como parte de la realidad que trae aparejada el proceso de transformación digital al cual asistimos y donde, como se ha expresado, tiene presencia cada vez más la IA. Todo ello impone retos para los empleos, la seguridad, la privacidad y la toma de decisiones basada en datos, que es también tendencia en la evolución y la generación de soluciones inteligentes en base a herramientas de IA. Ello, a su vez, evidencia las necesidades de capacitación en los desarrolladores y los usuarios, así como la evaluación sistemática de las aplicaciones. Cada una de estas cuestiones, entre otras, constituyen puntos de atención para el derecho.

Pensar el derecho para la transformación digital asistido por la IA

El uso de la inteligencia artificial en los procesos de transformación digital presenta varios riesgos que deben ser considerados y regulados por el derecho. Como ya se ha expresado, la IA maneja grandes cantidades de datos, incluyendo información personal. Una filtración de estos datos puede comprometer el bienestar de las personas, por eso es tan importante prever desde el diseño de las aplicaciones, el cumplimiento de los principios básicos de tratamiento y protección de datos reconocidos por la legislación para evitar tensiones y violaciones de derechos ante estas realidades.

Si bien en la implementación de procesos de transformación digital es dable que las organizaciones usen herramientas de IA para evaluar el comportamiento de las personas e identificar tendencias de consumo, lo cierto es que, según expresa Cotino, la finalidad de vigilar y potencialmente manipular a las personas, plantea serias preocupaciones éticas y legales (Cotino, 2019).

Por otra parte, si los algoritmos de aprendizaje de la IA no se configuran adecuadamente, pueden acabar reproduciendo sesgos propios de los humanos y, por ende, el sesgo algorítmico constituye un elemento de atención para gestionar el riesgo y delimitar las responsabilidades.

También los errores de programación informática pueden afectar a los algoritmos y ofrecer resultados engañosos, por ello la necesidad de dejar claro en los contratos laborales la responsabilidad social de los desarrolladores entre otros elementos por errores programáticos. Para cumplir con el principio de trazabilidad y explicabilidad, el equipo de desarrollo o servicio de la IA debe preservar y presentar si es requerido, la documentación completa de los datos de formación, contexto, finalidad y efectos colaterales.

Los sistemas de IA pueden ser vulnerables a ciberataques que pueden resultar en la sustracción de datos personales o información confidencial de cualquier organización. Gestionar el riesgo de los ciberataques constituye una máxima de prevención y de que la organización diseñe el plan de contingencia. A su vez, se conoce que muchos de esos ataques se realizan con éxito en buena medida porque se aprovechan las vulnerabilidades generadas por imprudencia humana o la violación de las reglas de ciberseguridad. Ello pone en relieve el riesgo de cumplimiento normativo, lo que debe gestionarse con estrictos programas de auditoría y expresas cláusulas de responsabilidad para operadores de las infraestructuras críticas.

Las decisiones tomadas por los sistemas de IA pueden causar problemas a los individuos, y también dañar e incidir en la pérdida de confianza al interactuar con la organización. Por eso es importante que los implicados en el desarrollo y uso de estas tecnologías cumplan protocolos claros para cada etapa de su ciclo de vida. Además, es fundamental que el profesional de la gestión de riesgos identifique y evalúe las vulnerabilidades inherentes a la inteligencia artificial. Aun así, dada la escasa legislación que existe en la actualidad sobre la implantación de la IA, el uso de esta tecnología puede generar situaciones de incumplimiento normativo. Por esa razón, cobra importancia el principio de transparencia y la exigencia de la participación humana tanto en la toma de decisiones finales como en los procesos de aprobación de diseños que se reconoce también como un principio.

El derecho al ocuparse de la transformación digital tiene que aceptar modificar su dinámica de dar respuesta jurídica a la realidad que se impone fruto de las tecnologías emergentes y la convergencia tecnológica. Además, tiene que aportar elementos para la concreción del gobierno de la información (Amoroso, Chacón, García, Guerrero, y Reyes, 2019) porque es necesario poner más el énfasis en las libertades, derechos, deberes y responsabilidades, en las garantías jurídicas en el entorno digital y en la nueva forma de gestionar el interés público y las relaciones de poder con los ciudadanos, lo cual comprende al propio derecho como sistema de información y como ciencia social.

En sede de la administración del Estado y sus organismos públicos, las estrategias para el uso de las tecnologías de la información y las comunicaciones (TIC), constituyen el marco estratégico universal para avanzar en la transformación digital de la Administración Pública, estableciendo sus principios rectores, los objetivos y las acciones para alcanzarlos, así como los hitos para el desarrollo gradual de la administración digital cuyo horizonte hoy debe apuntar a los Objetivos de Desarrollo Sostenible de las Naciones Unidas (ODS, 2030).

La estrategia TIC es un documento programático que incorpora las recomendaciones y buenas prácticas para la elaboración de políticas públicas de administración digital y se alimenta de la estrecha relación con los documentos de consenso referencial, servicios y oportunidades de cooperación de organismos internacionales para alinearla con la agenda digital nacional y la estrategia regional o global. Así mismo, es un claro instrumento para la interpretación de normas jurídicas y la elaboración de nuevas leyes que se integran al ordenamiento jurídico del sector público. Pero este escenario se ha complejizado más con la presencia de la IA que viene acompañada de la exigencia de elaborar su propia estrategia, que lejos de suplantar a la anterior, se suma a los instrumentos programáticos como parte del orden ético y normativo a seguir.

Así, la sociedad digital y en red se enfrenta a las amenazas propias de la naturaleza de la infraestructura tecnológica que la sostiene, a la impronta de las tecnologías emergentes, especialmente las derivadas de la IA y a la necesaria optimización de los recursos para lograr combatirlas sin invadir los derechos de quienes, al fin y al cabo, son los destinatarios de protección: los ciudadanos.

Desde la Organización de las Naciones Unidas (ONU, 2020) se insiste que es preciso continuar impulsando el aspecto de la seguridad en el desarrollo tecnológico, porque la sociedad depende en gran medida de ello. Un mal uso de la IA puede derivar en vigilancia masiva o permitir el acceso y el uso indebido de datos personales o sensibles sin el consentimiento o desconociendo derechos de las personas afectadas.

La automatización de tareas ha transformado los sistemas de producción y gestión, y ha rebajado en gran medida los costes asociados. Como también lo ha hecho en la elaboración, almacenamiento, acceso y difusión de archivos de datos con informaciones de todo tipo; razón por la cual, entre las medidas necesarias de formación o desarrollo seguro de la tecnología, es importante fomentar que se incorporen aspectos de seguridad desde su concepción, además de mitigar las vulnerabilidades existentes, y de asegurar sistemas protegidos, bien configurados y gestionados. Conviene resaltar que esta seguridad no solo es de tipo tecnológica, sino también implica la capacidad para crear y mantener información de calidad, veraz y confiable.

En otros términos, lejos de asegurar la solución o servicio digital, de lo que se trata es de hacer las cosas en un entorno de seguridad y disponibilidad confiable; lo que debe gestionarse como un buen hacer continuum, asumirse como una cultura, por ende, enseñarse en las aulas de ingeniería y gestión de software, y diseño de sistemas. Otro tanto corresponde a los encargados de velar por la calidad del proceso de desarrollo tecnológico, cuyo producto debe ser también validado por el usuario final.

Otro aspecto a tener en cuenta es la gobernanza de las tecnologías emergentes, ya sea relacionada con la revolución de los datos, con los ingentes volúmenes que se generan, o con su susceptibilidad a ser explotados por la IA, la robotización, la computarización o la biogenética, por solo mencionar algunos ejemplos.

Sea como fuere, el Estado debe preservar la capacidad tecnológica de la comunidad y proporcionar herramientas útiles a las estrategias de seguridad pública, aspirando incluso al perfeccionamiento de sus propios desarrollos especializados de las industrias tecnológicas para evitar la dependencia y disminuir los riesgos asociados al consumo de soluciones de seguridad tecnológica. Hasta ese punto es necesaria la intervención de los poderes públicos para ofrecer a los ciudadanos las máximas garantías de seguridad y de protección de sus derechos y libertades, también en el contexto tecnológico y digital.

Por la complejidad de los retos y amenazas a los que se está enfrentando el ciudadano es importante que las políticas de seguridad pública estén provistas de una capacidad de respuesta adecuada, y esta permita la máxima eficacia en la obtención de resultados con los recursos disponibles.

La Constitución, ley de leyes, confía la garantía de la seguridad ciudadana a las entidades de orden interior y protección de la seguridad nacional, siendo estos los órganos responsables principalmente sin ser excluyente de acometer estas tareas, con un conjunto muy plural y diversificado de actuaciones configuradas al amparo del libre ejercicio de los derechos y libertades de las personas.

En este contexto, la seguridad pública debe ser entendida como la actividad dirigida a proteger valores fundamentales en lo que se fundan la salvaguarda de personas y bienes, a mantener la tranquilidad de los ciudadanos en todas las dimensiones, por ende, también en el ciberespacio.

En el contexto digital y en red, las amenazas más evidentes se traducen en ataques informáticos a infraestructuras y servicios esenciales, el espionaje, la manipulación de información, los delitos económicos en línea, los daños informáticos, la interceptación de comunicaciones, la video-vigilancia y cualesquiera otros sistemas de control de movimientos de las personas, entre otras conductas indebidas que deben ser objeto de revisión permanente acorde a la propia evolución tecnológica, lo cual siempre trae aparejado nuevas vulnerabilidades que hay que gestionar adecuadamente.

Otras amenazas menos visibles, igualmente peligrosas, lo son la extrapolación de la discriminación, dígase racial, de género, origen étnico o cualquier otra, producto, por ejemplo, de los sistemas evaluadores de riesgo utilizados por la policía; muy a tono con el movimiento social: Las vidas negras importan (#BlackLivesMatters). Aunque está presente también en el otorgamiento de créditos bancarios, las pólizas de las aseguradoras, así como la admisión y facturación en hospitales públicos u otros servicios automatizados.

Un estudio realizado en la Universidad de Stanford reveló los resultados preliminares de un proyecto, que según el rostro, determina la inclinación sexual de las personas. Sin embargo, este es el case que sirvió para entrenar y validar al algoritmo. El objetivo detrás del proyecto es determinar la inclinación política del votante con un sistema de reconocimiento facial en los colegios electorales y que en el futuro permita hacer campañas electorales a la medida, de acuerdo a dónde viven las personas (Rodríguez, 2017).

La algoritmización, en algunos contextos, puede tener un alcance más propio de la seguridad nacional porque está muy vinculada al ejercicio soberano en el contexto digital. Las ciudades inteligentes, la IA y el Internet de las cosas pueden aportar más riesgos sobre el escenario descrito (ITU-T Y.4903/L.1603, 10/2016). Pero si bien es lógico que se vayan actualizando las legislaciones conforme a los retos de seguridad y se exija, es importante señalar que dejarse llevar por la inmediatez como criterio principal de actuación no va a garantizar un resultado menos lesivo.

En coincidencia con Mena (2018), existen otros tipos de peligros que tienen su origen en el descuido de los mecanismos garantes de la calidad de la información. Por ejemplo, las modificaciones que se producen en la información que está sujeta necesariamente a procesos de actualización y migración. Estos procesos si se hacen sin cumplirse los requisitos establecidos y con el rigor requerido se generan las condiciones propicias para que existan grandes posibilidades de utilizar datos e información sin calidad, por lo que dejarían de ser información veraz y confiable, y, por consiguiente, se compromete el valor legal de la evidencia.

En muchas ocasiones, expresa Varona (2020), el uso de información fallida en la toma de decisiones tiene este origen, fruto de una actitud negligente y sin mala intención, pero produce efectos que, si bien son imprevisibles, resultan ser igualmente dañinos como el actuar intencional y culposo, por lo que deriva en ser sujeto responsable del hecho y sus consecuencias.

Las fórmulas para atajar el problema no pueden basarse sin más en el hecho de que exista tecnología que permita repeler las acciones delictivas, sino que se debe ponderar si es tanta la utilidad que proporcionará a efectos de seguridad pública cuando se conculquen derechos fundamentales de forma irreversible o de muy difícil reparación.

En tal sentido, hay que establecer claramente y dar a conocer a los operadores de sistemas de información sus deberes y responsabilidades sociales, así como las consecuencias jurídicas de sus actos en el proceso de gestión. El ejercicio consciente de alcanzar y compartir valores éticos en el desempeño profesional es otra garantía para el cumplimiento de las normas, en tanto se asumen por convicción ética y responsabilidad con-ciudadana. Por eso, cada vez más se obtiene como paradigmas de programación la seguridad por diseño, la privacidad por diseño, y la ética por diseño. Todo lo cual se expresa en lo que ya se empieza a reconocer, según Varona, como componentes prácticos que sostienen el principio de responsabilidad social tecnológica para los desarrolladores de soluciones digitales (Varona, 2018).

Ante este complejo escenario, durante los días 19 y 20 de octubre de 2017, el Consejo Europeo planteó la necesidad de una estrategia común de la ciberseguridad en la Unión Europea (UE). En las conclusiones del debate se señalaba que “el mundo digital se basa en la confianza, y que esta solo puede lograrse si, en todas las políticas digitales, se garantiza proactivamente la seguridad desde su concepción, se proporciona una certificación adecuada de seguridad de los productos y servicios, y se incrementa la capacidad para prevenir, disuadir, detectar y responder a los ciberataques” (Consejo Europeo, 2017).

Un artículo de referencia del debate del Consejo Europeo en el periódico español El País (2017), reconoce que en los debates también se examinó la necesidad de “concienciar sobre la urgencia de hacer frente a las nuevas tendencias”, en clara alusión a lo que se comprende como Trust worthy AI, que sin ser literal, en español puede asumirse como IA confiable e incluye a las tecnologías de cadena de bloques, la que se presentan como solución para garantizar un elevado nivel de protección de los datos, así como la vigilancia sobre los derechos digitales y el comportamiento acorde a las normas éticas.

Pero existen otros problemas más difíciles de entender cómo resolverlos, que actualmente se intentan enfrentar para preservar los derechos fundamentales, y tienen su raíz en que se asume que la discriminación resultante de la IA no es intencionada y depende en gran medida del punto de referencia. Para mejor comprensión, nos acercamos a dos ejemplos:

 

• En los vehículos autónomos, que ya son una realidad en países como Estados Unidos y Canadá. El principal problema ético está en que dado un accidente hay decidir a quién se debe proteger, ello es a: al dueño del carro, al pasajero, o al peatón que se dañó. Por ende, determinar quién debe ser juzgado como responsable: al fabricante, el equipo de desarrolladores; de manera general a todos los que con algún grado de participación o condición que los vincula el hecho. Al respecto de la primera interrogante, existen regiones que se inclinan por uno o por otro considerando que el núcleo AI del vehículo autónomo debe considerar elementos como la edad, sexo, incluso estatus social percibido, en su toma de decisiones. Todavía no existe un debate marcado sobre la responsabilidad de los segundos.• En los sistemas automáticos utilizados para la admisión en las escuelas. El algoritmo, en su afán de ser menos discriminatorio favorece lo que entiende por minorías: emigrantes, raciales, sexo, entre otros atributos. Y, termina discriminando a la inversa. Cuando se escala el problema se tiene, por ejemplo, que la escuela está compuesta en su mayoría por individuos que pertenecen a comunidades de minorías; y discriminó a la gran parte de la población aplicable. Esta realidad, se conoce como discriminación blanca.

 

Por eso, el enfoque actual sobre los problemas sociales enraizados al uso de la tecnología se enfoca principalmente a este último tipo de problemas que se hace referencia supra. Los anteriores, pueden ser considerados como problemas de oficio. Que están, y estarán, como resultado de los problemas raíces de la sociedad global y comportamientos indebidos que hoy se reproducen en ese entorno, pero se dan en el entorno de lo conocido y han ido mutando con la evolución tecnológica.

De manera que todos los países miembros que integran la ONU, están implicados por su condición de garantes y por su responsabilidad, en actuar para consolidar sus propias estrategias de seguridad en el ciberespacio y responder a los ataques con los recursos necesarios para prevenir, detectar y responder ante las crisis, y siempre respetar los derechos de los ciudadanos. Por eso cada vez más, desde las organizaciones de la propia Naciones Unidas se les conmina que no solo deben preocuparse, sino esencialmente ocuparse de los problemas derivados y previsibles de la IA confiable en la medida que se hace presente en la cotidianeidad social y como extensión del ejercicio ciudadano.

Inspirado en esta realidad, el 25 junio de 2019 la Organización para la Educación, Cultura y la Ciencia de las Naciones Unidas (Unesco), publicó el Consenso de Beijing sobre la Inteligencia Artificial y la Educación, siendo este primer documento multilateral e intergubernamental que propone consejos y convoca a construir un Código Ético para la IA (Unesco, (2021).

Este decisivo paso dado en el año 2019 se corresponde con el compromiso de apoyar a los Estados Miembros para que puedan sacar provecho del potencial de las tecnologías de la IA con miras a reconocerla como una oportunidad para alcanzar los Objetivos de Desarrollo Sostenible de las Naciones Unidas ODS2030.

La Recomendación fue aprobada por aclamación por los 193 Estados Miembros, el 23 de noviembre de 2021. Este instrumento normativo fue elaborado mediante un enfoque mundial, basado en el derecho internacional y centrado en la dignidad humana y los derechos humanos como valores. Este sirve de base para poner los sistemas de IA al servicio de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas. También se aprobó con la intención de estimular la utilización de los sistemas de IA con fines pacíficos.

Este instrumento multilateral (UNESCO, 2021) reconoce los principios siguientes:

 

• Proporcionalidad e inocuidad• Seguridad y protección• Equidad y no discriminación• Sostenibilidad• Derecho a la intimidad y protección de datos• Gobernanza y colaboración adaptativas y de múltiples partes interesadas• Supervisión y decisión humanas• Transparencia y explicabilidad• Responsabilidad y rendición de cuentas• Sensibilización y educación

 

Al ser una Recomendación se incluye un mecanismo de evaluación periódica y con el objetivo de acompañar a los Estados a desarrollar sus propias estrategias se elaboró también una Metodología de Evaluación de Preparación (RAM). Esta metodología es una herramienta clave para la implementación de la Recomendación sobre la Ética de la IA porque les permite a los países entender cuán preparados están para aplicar la IA ética y responsablemente para todos sus ciudadanos. La RAM ayuda a resaltar cualquier brecha institucional y regulatoria, y apoya a los gobiernos a llenar esas lagunas, con el fin de asegurar un ecosistema ético de IA en línea con la Recomendación (Unesco, 2021).

La Unión Europea aprobó el 8 de diciembre de 2023 la ley que regula la IA, el que constituye un marco normativo de implementación gradual hasta 2027, con fases bien delimitadas en el tiempo y que comprenden acciones específicas para que las entidades comiencen a crear las condiciones para poder cumplir con lo normado. Tiene la vocación de convertirse en un estándar legislativo (Suñé, 2023).

La mencionada ley establece prohibiciones a la manipulación subliminal y el uso indebido de vulnerabilidades a grupos específicos. Reconoce las reglas para la creación de códigos de práctica y gobernanza como base que orienten a las entidades cómo implementar de manera ética y responsable el desarrollo y uso de sistemas de IA. La ley acoge un modelo de regulación basado en riesgos, por tanto, distingue sistemas de alto riesgo y establece obligaciones específicas. Esta norma propugna por una IA fiable, porque se desarrolle y use conforme a la ley. Que respete principios éticos y que sea robusta, aquella en la que los sistemas de IA ofrezcan un correcto funcionamiento y exista el mecanismo para prever medidas de protección contra cualquier efecto adverso imprevisto (EUR-Lex, 2023).

El ciudadano de la sociedad digital y en red. Ética y derechos humanos

La IA debe basarse en el respeto por los derechos humanos. Existen preocupaciones sobre cómo esta puede afectar la privacidad y la libertad de expresión. La regulación de la IA debe garantizar que los beneficios superen los riesgos y debe establecer límites para proteger los derechos humanos.

Hoy los procesos de digitalización y datificación de la sociedad, ponen en evidencia cómo el tratamiento de datos desempeña un papel central en el desarrollo de la ciudadanía digital y cómo la presente sociedad algorítmica insta a vincular la dimensión individual y colectiva del uso de datos. Desde esta perspectiva, la ciudadanía digital puede hacerse efectiva en términos de participación en la vida democrática solo si las personas, como individuos y grupos, han otorgado su derecho a su propio desarrollo y a su relación sin restricciones injustificadas por parte de entidades públicas o privadas.

Esto destaca la dimensión sociopolítica de los datos, ya que la información se utiliza para analizar, organizar y dar forma a la sociedad. En este sentido, la relevancia de la protección de datos va más allá de la dimensión individual y se convierte en un elemento constitutivo de la ciudadanía (Consejo Europeo, 2014).

La ausencia de cualquier estigma social y control generalizado es la condición previa para cualquier forma de ciudadanía digital y esto es aún más cierto en la sociedad actual, donde existe el riesgo de que la “verdad algorítmica” prevalezca sobre las decisiones democráticas (Varona, 2018). Desde esta perspectiva, las cuestiones colectivas relacionadas con el impacto ético y social del uso de datos deben abordarse adecuadamente para desarrollar modelos de gobernanza de datos que los tengan en cuenta.

Los algoritmos tienden a evaluar a individuos y predecir determinados comportamientos basándose en inferencias extraídas sobre la información disponible sobre el grupo con el cual los atributos del individuo exhiben mayor afinidad (Varona, Lizama-Mue y Suárez, 2020). Sin embargo, la decisión final debe siempre abordarse desde la singularidad del individuo, y recaer la responsabilidad de la decisión sobre en el decisor.

La evaluación de estos impactos sociales a través de un debate abierto y participativo sobre la dirección que debe tomarse para equilibrar la eficiencia, los derechos y los intereses sociales es necesariamente parte de una idea de democracia, fundamental para una ciudadanía digital efectiva. Estamos en una realidad del derecho frente a la IA y de una zona de gestación derecho a la IA. En tal sentido, se necesita de una regulación adecuada y justa. La hiperregulación puede tener un efecto contrario al objetivo que se está deseando.

La implementación de la IA supone un reto ético

La necesidad de un replanteamiento muy serio sobre el orden y el modo de operar de las distintas instituciones implicadas en la promoción y materialización, normativa y ejecutiva, de las soluciones innovadoras y tecnológicas en la justicia en el mundo, no es solo necesario, sino que urge.

El orden y la coordinación en la actuación de los poderes públicos resulta, conforme con Rifkin, insustituible de cara al logro de los principios comprometidos en el Estado de derecho, incluido el tan valorado de la eficiencia (Rifkin, 2014) y, desde luego, en mucha mayor medida, para la garantía de los derechos fundamentales de los ciudadanos, según afirma Ferry (2017).

En segundo lugar, los análisis desplegados se refuerzan en la consideración de que la simple implantación de soluciones tecnológicas no solo no resulta suficiente para un mejoramiento efectivo en el ejercicio de la función jurisdiccional, sino que puede conllevar un deterioro significativo de esta, incluyendo preocupantes exposiciones de los derechos fundamentales de los ciudadanos. Esta realidad no solo se ha constatado en los aspectos de gestión procesal, con resultados suficientemente contrastados, sino que adquiere una relevancia, incluso superior, en el caso de la modernización de las actuaciones procesales y de investigación judicial.

En tal sentido, un examen crítico a través de estudio de casos sobre la implantación en los ordenamientos jurídicos procesales, de herramientas como la videoconferencia o la generalización de medios digitales para el seguimiento, captación y registro de imagen, como los drones, han revelado dos aspectos sobre los que convendrá seguir reflexionando.

Por una parte, que la disponibilidad y regulación acabada de este tipo de instrumentos tecnológicos no solo ha de verse precedida, sino con certeza avalada de manera continua, por estudios e investigaciones jurídicos profundos devenidos en particular del mundo académico sin desconocer lo que sucede en la realidad que llega a los espacios de mediación, jurisdiccionales, así como arbitrales; o simplemente lo que se dice y comenta por las redes sociales como espacio público para socializar inquietudes y saberes. Se imponen, cada vez más, la necesidad de pensar y actuar con mirada multidisciplinar que aporte perspectivas, cuando no soluciones, a los complejos problemas que afloran de la misma sociedad digital y en red.

Por otra parte, la necesidad apenas expresada se refuerza en muchas ocasiones, porque los derechos que pueden verse afectados en su implementación exceden con mucho a los meramente procesales, comprometiendo estas aún novedosas herramientas, como ha podido también comprobarse en varios casos de estudio, derechos constitucionales sustantivos de primer orden.

La inteligencia artificial plantea desafíos significativos tanto para las ciencias penales como para la criminología. Uno de los principales riesgos desde la perspectiva del derecho penal es la desconfianza en los sistemas de IA y la falta de transparencia en los algoritmos utilizados. Esto podría afectar el derecho de defensa de los individuos. Es crucial garantizar que los procesos de toma de decisiones basados en IA sean comprensibles y justificables, por lo que deben regirse estrictamente, entre otros, por el principio de transparencia.

Por su parte, la incorporación de la IA en la investigación criminal plantea preguntas fundamentales. ¿Estamos dispuestos a ceder el control de nuestros derechos a un algoritmo? ¿Qué sucede cuando se utilizan sistemas algorítmicos para predecir delitos o como sustitutos de decisiones policiales o judiciales? La regulación debe abordar estos desafíos.

Lo cierto es, si bien la IA puede aumentar la eficacia y objetividad en la averiguación de la verdad material, también plantea peligros para las garantías procesales. La justicia debe encontrar un equilibrio entre eficiencia y protección de derechos fundamentales. Si bien, la IA en el ámbito penal y criminológico es un terreno fértil para la innovación, también requiere una regulación cuidadosa y una reflexión profunda sobre sus implicaciones en nuestros sistemas legales y de justicia.

Considero esencial, tanto para la eficacia del ejercicio del derecho a la defensa técnica como para la transparencia de los sistemas nacionales de justicia penal, la existencia de un marco jurídico específico, claro y preciso que regule las condiciones, las modalidades y las consecuencias del uso de herramientas de IA en el ámbito de las actuaciones policiales y judiciales, así como los derechos de las personas afectadas. Que establezca procedimientos eficaces y fácilmente accesibles de reclamación y recurso, incluidos los recursos judiciales; que subraye el derecho de las partes en un procedimiento penal a tener acceso al proceso de recopilación de datos y a las evaluaciones conexas realizadas u obtenidas mediante el uso de aplicaciones de inteligencia artificial.

También, se destaca la necesidad de que las autoridades de ejecución participantes en la cooperación judicial, al decidir sobre una solicitud de extradición (o entrega) a otro Estado o a un tercer país, evalúen si el uso de herramientas de IA en el país solicitante podría manifiestamente comprometer el derecho fundamental a un juicio justo. Es necesario elaborar directrices sobre cómo llevar a cabo dicha evaluación en el contexto de la cooperación judicial en materia penal; los Estados, de conformidad con la legislación aplicable, deben velar por la información de las personas que sean objeto de aplicaciones de IA utilizadas por parte de las autoridades policiales o judiciales.

La complejidad de la IA hace difícil atribuir correctamente la responsabilidad legal por posibles daños. Es necesario establecer un régimen claro para determinar la responsabilidad jurídica de las consecuencias adversas derivadas de la IA. La responsabilidad debe recaer en personas físicas o jurídicas, identificadas en los casos de decisiones apoyadas por la IA.

En aplicaciones de IA en el contexto policial, se debe observar el principio de precaución para evitar consecuencias adversas. Evaluar si el uso de herramientas de IA podría comprometer el derecho fundamental a un juicio justo en casos de extradición.

En la Ley de Inteligencia Artificial de la Unión Europea se consideran ciertos usos de la IA como “alto riesgo”. Esto incluye la evaluación individual de riesgos, la detección de emociones, la predicción de delitos y la elaboración de perfiles de personas. La regulación debe equilibrar la innovación con la protección de derechos (Marra, 2024).

La IA puede ayudar en la identificación de patrones y la predicción de comportamientos delictivos. Sin embargo, debemos considerar la ética detrás de estas predicciones y cómo afectan los derechos individuales. Además, el éxito predictivo no debe comprometer la justicia. A continuación, se mencionan casos en los que se han implicado sistemas inteligentes y se ha existido tensiones en relación con la ética y el éxito predictivo.

 

•Wisconsin vs. Loomis: Este caso se demostró la existencia de un sesgo por razón del origen racial de las personas en COMPAS, un algoritmo predictivo de aprendizaje automático o machine learning adoptado por la Administración de Justicia de Estados Unidos para determinar el riesgo de reincidencia del individuo en diferentes etapas del proceso penal. Este algoritmo daba siempre como resultado un porcentaje de reincidencia más elevado en las personas de raza negra (Fernández, 2020).•State vs. Nieves: En el caso State v. Nieves, que tuvo lugar en Ohio en 2017, se utilizó un software de evaluación de riesgos llamado PSA (Public Safety Assessment) para determinar si un acusado debía ser liberado bajo fianza o permanecer detenido antes del juicio. El caso State vs. Nieves generó un debate sobre la fiabilidad y la equidad de los algoritmos utilizados en el sistema de justicia penal y puso de manifiesto la necesidad de establecer salvaguardias para garantizar la transparencia y la revisión adecuada de las decisiones basadas en inteligencia artificial.

 

Por eso, cabe en esta sección hablar sobre los sistemas evaluadores de riesgo, y en especial aquellos destinados a emitir sentencias. El uso de IA en el sistema de justicia para brindar servicios a usuarios o para la gestión de casos deben ser diseñado bajo estrictas reglas éticas, y requieren de una regulación adecuada y de una supervisión continua de los sistemas de inteligencia artificial para garantizar que se respeten los derechos y se eviten los sesgos y la discriminación.

Como suele suceder en el contexto digital, los procesos se valen del uso de tecnologías también para alcanzar objetivos de supervisión, evaluación de impacto, auditorias, y múltiples herramientas que integran el arsenal de la informática forense. A continuación, se hace referencia a un proyecto que ha devenido en una herramienta de gestión de información para sustentar demandas judiciales.

Este es el caso del Proyecto Inocencia que, si bien no tiene directa relación con la tecnología, ha sido empleado para demostrar qué decisiones tomadas en el pasado afectan las futuras decisiones dado los datos con los que se entrenan los algoritmos. Casos en los que los condenados lo fueron injustamente por los resultados de pruebas de ADN obtenidas. Según reportes a los que se puede acceder en la web, se ha obtenido 237 victorias hasta la fecha y sus clientes pasaron de conjunto 3,670 años encarcelados sin merecerlo (Proyecto Inocencia, 2020).

En la actualidad, este Proyecto se ha convertido en la sede de la Innocence Network, una coalición de aproximadamente 70 organizaciones que brindan apoyo legal a la investigación para obtener información con el objetivo de liberar a los inocentes, prevenir las condenas injustas y crear un sistema de justicia justo, compasivo y equitativo para todos. También aporta información para reformar el sistema de justicia penal y prevenir futuras injusticias. Está activo y brinda apoyo con el proceso posterior a la condena a personas en los 50 estados de los Estados Unidos y otros 12 países.

En el ámbito no digital, la jurisprudencia se reconoce como precedente y argumento esgrimido en el proceso. Al ser digitalizadas para ser utilizadas en el entrenamiento de la IA es fundamental asegurar la calidad y la representatividad de los datos utilizados para evitar sesgos y garantizar la fiabilidad del algoritmo en la identificación de jurisprudencia. Pero, además, los algoritmos de evaluación de riesgo deben ser reentrenados, de lo contrario, solo aprenden del mismo conjunto de datos original y desconocen aquellos casos de individuos que han sido erróneamente encarcelados porque su inocencia ha sido probada hoy día, pero cuyos datos se mantienen como información que alimenta al sistema e influencia las condenas, dada una evaluación de riesgo al ser aplicadas a individuos con características similares.

De manera que existen sectores poblacionales que siguen afectados por las frecuencias estadísticas relacionadas a elementos que condicionan las decisiones a las que son sujetos, donde esas frecuencias pueden ya no exhibir la misma significación estadística para determinada decisión, pero la información original que se usa para entrenar a los modelos se ha vuelto imprecisa. Es por ello que es correcto señalar que conceptos como el overfitting, que es el sobreajuste, en modelos de aprendizaje automático, tiene que ser exigido. En coincidencia con Varona (2020) muchos de los problemas de sesgo están dados porque los modelos no se reentrenan para evitar el overfitting. Lo que, por un lado, dificulta que el sistema pueda llegar a una conclusión y, por otro, siguen reproduciendo sesgos preexistentes fruto de los datos originales con que fueron entrenados.

También en este ámbito jurídico, encontramos las prácticas de justicia a demanda. Por ejemplo, los divorcios que se hacen a través de unchatboto cuestionario en línea, lo cual denota un problema moral, pues se facilita más el divorcio que el matrimonio. Al decir de Martino (1987), en los años finales de la década de los sesenta y de los setenta, ya existía una solución que asistía al proceso de divorcio, pero el Consejo de Estado francés prohibió su uso argumentando su vocación de defensa y protección de la institución del matrimonio.

En este apartado también se reconoce la importancia de que el operador de justicia retenga en todo momento su responsabilidad sobre una decisión dada independientemente de la sugerida por los algoritmos. Los actuales desarrollos tecnológicos que se introducen en el área de la administración de justicia deben verse como una continuidad de los postulados pioneros de informática jurídica los que tienen también incidencia sobre los actuales derroteros de la justicia predictiva.

La informática jurídica, en tanto segmento especializado de la informática aplicada para el desarrollo de soluciones informáticas para la sociedad y en particular en el llamado sector jurídico y gubernamental se funda en el más absoluto apego a los principios fundamentales del derecho y al uso del desarrollo tecnológico en función del respeto de la dignidad humana y la seguridad jurídica.

En ese sentido se sugiere afianzar más las relaciones epistemológicas de la sociocibernética y la informática jurídica. Al reconocerse el espacio actual de las LegalTech se entiende a su vez que es un estado de evolución de la informática jurídica y que deben formar parte de la misma relación teórico-práctica, tanto en el área del derecho como en las ingenierías, las matemáticas, las ciencias de la información y todo el entorno que hoy se integra reconociéndose como las humanidades digitales y el humanismo digital. La informática jurídica insertada entre las prácticas de uso y desarrollo de la IA, es una herramienta importante para la transformación digital y el soporte funcional del derecho que este proceso demanda, porque conducen a ubicar al ciudadano en el centro del proceso y a participar en la decisión.

Conclusiones

La transformación digital y la inteligencia artificial están estrechamente relacionadas. La IA es una pieza clave en las estrategias de digitalización de empresas y gobiernos. Esta tecnología transversal acelera los procesos de transformación al ser aplicable a cualquier proyecto que maneje datos. La IA puede mejorar la eficiencia, la productividad y la innovación en las organizaciones, pero ambas exigen la participación activa del ser humano en los procesos y toma decisiones. En especial el papel como ciudadanos.

La relación ética y derechos humanos determina que la IA debe basarse en el respeto por los derechos humanos con el ánimo de establecer reglas jurídicas que regulen el uso y desarrollo de la IA para evitar afectar la privacidad y la libertad de expresión. La regulación de la IA debe garantizar que los beneficios superen los riesgos y debe establecer límites para proteger los derechos humanos.

La regulación de la inteligencia artificial en el ámbito penal es crucial para garantizar que esta tecnología se utilice de manera justa, transparente y equitativa. Los cálculos de un sistema de IA deben ser comprensibles para los seres humanos. Es esencial establecer un marco jurídico específico que regule las condiciones, modalidades y consecuencias del uso de estas herramientas en actuaciones policiales y judiciales. La regulación debe abordar la transparencia, la explicabilidad, la responsabilidad y la protección de derechos fundamentales en el uso de la IA en el ámbito penal. Este marco debe abordar los derechos de las personas afectadas, así como los procedimientos de reclamación y recurso.

La complejidad de la IA hace difícil atribuir correctamente la responsabilidad legal por posibles daños. Es necesario establecer un régimen claro para determinar la responsabilidad jurídica de las consecuencias adversas derivadas de la IA. La responsabilidad debe recaer en personas físicas o jurídicas, identificadas en caso de decisiones apoyadas por la IA.

En aplicaciones de IA en el contexto policial, se debe observar el principio de precaución para evitar consecuencias adversas. Se debe garantizar la trazabilidad de los sistemas de IA y sus procesos decisorios. Esto implica documentar sus funciones, capacidades, limitaciones y origen de atributos definitorios de decisiones.

Referencias bibliográficas

Amoroso, Y.; Chacón, N.; García, M.; Guerrero, J. y Reyes, P. (2019). Gobierno de la información. Realidades contemporáneas. Quito: Universidad de las Américas.

CEPAL (2023). La transformación digital puede contribuir a la transformación de los modelos de desarrollo en América Latina y el Caribe para hacerlos más productivos, inclusivos y sostenibles. www.cepal.org.

Comisión Europea (2023). La Ley IA. https://digital-estrategy.ec.europea.eu/es/policies/regulatory-framework.ai

Consejo Europeo (2014). Directiva 2014/60/UE del 15 de mayo de 2014 relativa a la restitución de bienes culturales que hayan salido de forma ilegal del territorio de un Estado Miembro, y por la que se modifica el Reglamento (UE) no 1024/2012 (refundición) (DO L 159, 28 de mayo de 2014). Diario Oficial, L 159/2014. https://eur-lex.europa.eu.

__________ (2017). Informe EUR-Lex-52013JC0001, 2017/Estrategia Común para la Ciberseguridad. https://eur-lex.europa.eu

Cotino Hueso, Lorenzo. (2019). Derecho y garantías ante el uso público y privado de inteligencia artificial, robótica y big data. El derecho de las TIC en Iberoamérica. Uruguay: La Ley.

El País (2017). La robótica también sustituye a los empleados de cuello blanco. https://books.google.com.cu

EUR-Lex (2023). Reglamento de la IA. https://eur-lex.europa.eu

Fernández Arienza, Alberto (2020, abril-junio). Comentario a la sentencia de la Corte de Apelaciones en el caso State of Wisconsin vs. Eric L. Loomis del Tribunal Supremo del estado de Wisconsin. Revista Derecho Digital e Innovación, (5).

Ferry, L. (2017). La revolución transhumanista. Cómo la tecnomedicina y la uberización del mundo van a transformar nuestras vidas, pp. 113 y ss. Alianza Editorial. https://www.amazon.es/revolución-transhumanista

HAI (2021). Informe Anual del AI index de la Universidad de Stanfordhttps://creativecommons.org/licenses/by-nd/4.0/deed_es.ES

Herrera, Triguero Francisco (2023). Conferencia Magistral, La inteligencia artificial silenciosa ha entrado en nuestras vidas. La Habana: Academia de Ciencias de Cuba.

Hidalgo, Delgado Yusniel (2024). La Inteligencia Artificial en la Transformación Digital de la Sociedad: Casos de estudio en Datalisoft. X Encuentro Internacional Ciudades MIL de la UNESCO, La Habana.

Marra, Anna (2024). Ley de IA-Asegurando los primeros pasos. https://es.linkendin.com_anna-marra

Martino, A. (1987). Manuscrito del Curso de Informática Jurídica impartido en 1897 en La Habana. Ministerio de Justicia de Cuba- IDG Florencia.

Mena, M. y Castillo, J. (2018). Integración de los enfoques de gestión documental y gestión de riesgos para el tratamiento de la información como evidencia de actos y transacciones organizacionales. Revista Cubana de Información en Ciencias de la Salud. https://scielo.sld.cu

Moor, James(2006). The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years.AI Magazine, 27(4), 87-91

ONU (2020).https://www.un.org/disarmament/es/los-avances-en-la-informatizacion-y-las-telecomunicaciones-en-el-contexto-de-la-seguridad-internacional/

Piñeiro, Pérez Pedro (2024). Tendencias de la Inteligencia Artificial. Impacto en el desarrollo. X Encuentro Internacional Ciudades MIL de la UNESCO. La Habana.

Proyecto Inocencia (2020). https://www.innocenceproject.org/

Recomendación ITU-T Y.4903/L.1603 (2016, octubre). Key performance indicators for smart sustainable cities to assess the achievement of sustainable development goals.https://handle.itu.int/11.1002/1000/12884

Reyes, Olmedo Patricia (2023). Ética de las tecnologías. Desafíos y oportunidades en el mundo digital. Actas del XXIV Congreso Iberoamericano de Derecho e Informática. Bogotá: Universidad de Villavicencio.

Rifkin, J. (2014). La sociedad de coste marginal cero: el Internet de las cosas, los bienes comunes y el eclipse del capitalismo. Barcelona: Paidós.

Sociedad y Derecho. Tribunal de Justicia de la Unión Europea (2014). (C-131/12), Sentencia pronunciada en 2014. Derecho al olvido. https://dialnet.unirioja.es

Rodríguez García, Elias (2017). La Inteligencia Artificial que detecta la orientación sexual de cada persona. www.elespanol.com

Suñé Llinás, Emilio (2023). Conferencia La Ley de IA. Madrid: Universidad Complutense de Madrid.

UNESCO (2021). Recomendación sobre la Ética de la IA. https://on.unesco.org/48XkvEO

Vallejo, Rivas Pilar (coord.) (2020). Discriminación algorítmica en el ámbito laboral: perspectiva de género e intervención. Aranzadi.

Varona, D. (2018). La responsabilidad ética del diseñador de sistemas en Inteligencia Artificial. Revista de Occidente,(446-447), 104-114.

__________(2020).