Oportunidades en el mundo empresarial pos-pandemia: un análisis multidisciplinar - Marcelo Leporati - E-Book

Oportunidades en el mundo empresarial pos-pandemia: un análisis multidisciplinar E-Book

Marcelo Leporati

0,0
29,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Esta obra reúne una selección de capítulos escritos por destacados profesores de la prestigiosa EAE Business School, quienes, con su amplio conocimiento y experiencia, nos ofrecen una visión integral de las oportunidades emergentes en este nuevo escenario. Cada capítulo aborda aspectos cruciales de nuestros tiempos, explorando las oportunidades desde una perspectiva multidisciplinar y presentando un análisis riguroso basado en la investigación y la experiencia práctica. Los temas tratados abarcan una amplia gama de áreas clave en el entorno empresarial actual, como el impacto de la inteligencia artificial, la evolución del trabajo a distancia y el teletrabajo, la regulación legal de los criptoactivos, la nueva visión estratégica de la responsabilidad social corporativa y la contribución de las empresas al desarrollo sostenible. Los autores, expertos en sus respectivos campos, nos guían a través de un análisis exhaustivo y nos brindan valiosas perspectivas sobre cómo adaptarnos y prosperar en esta nueva realidad.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 472

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Oportunidades en el mundo empresarial pos-pandemia: un análisis multidisciplinar

Marcelo Leporati

Eduardo Carlos Dittmar

Coordinadores

Oportunidades en el mundo empresarial pos-pandemia: un análisis multidisciplinar

Autores

Bethlem BoronatDavid López JiménezPere BrachfieldJoaquín Marqués-PascualElena BulmerJuan Carlos Merino San RománVíctor Manuel Castillo GirónMaría José Molina GarcíaSusana Beatriz Checa PrietoSanta Palella StracuzziCristina del Prado HigueraJulio César Pérez PalellaMarcelo LeporatiMagalí Riera RocaSergio RosesAlfonso Jesús Torres MarínMarta Sánchez EsparzaEmilio Velasco

Prólogo

Antonio Rodríguez Ruibal

Primera edición, 2023

Incluye soporte electrónico

El editor no se hace responsable de las opiniones recogidas, comentarios y manifestaciones vertidas por los autores. La presente obra recoge exclusivamente la opinión de su autor como manifestación de su derecho de libertad de expresión.

La Editorial se opone expresamente a que cualquiera de las páginas de esta obra o partes de ella sean utilizadas para la realización de resúmenes de prensa.

Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra solo puede ser realizada con la autorización de sus titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos) si necesita fotocopiar o escanear algún fragmento de esta obra (www.conlicencia.com; 91 702 19 70 / 93 272 04 45).

Por tanto, este libro no podrá ser reproducido total o parcialmente, ni transmitirse por procedimientos electrónicos, mecánicos, magnéticos o por sistemas de almacenamiento y recuperación informáticos o cualquier otro medio, quedando prohibidos su préstamo, alquiler o cualquier otra forma de cesión de uso del ejemplar, sin el permiso previo, por escrito, del titular o titulares del copyright.

© 2023 [Editorial Aranzadi, S.A.U. / Marcelo Leporati, Eduardo Carlos Dittmar (coords.)]

© Portada: Editorial Aranzadi, S.A.U.

Editorial Aranzadi, S.A.U.

Camino de Galar, 15

31190 Cizur Menor (Navarra)

ISBN: 978-84-1163-301-7

DL NA 1302-2023

Printed in Spain. Impreso en España

Fotocomposición: Editorial Aranzadi, S.A.U.

Impresión: Rodona Industria Gráfica, SL

Polígono Agustinos, Calle A, Nave D-11

31013 – Pamplona

Prólogo

En los últimos años, el mundo ha experimentado una transformación sin precedentes que ha afectado profundamente a la sociedad y la economía a nivel global. La pandemia de COVID-19 nos ha desafiado de formas inimaginables, dejando un impacto duradero en todos los aspectos de nuestras vidas. Sin embargo, dentro de las adversidades y desafíos, también han surgido nuevas oportunidades y perspectivas en el mundo empresarial.

En este contexto, el libro «Oportunidades en el mundo empresarial pos-pandemia: un análisis multidisciplinar» adquiere una relevancia especial. Esta obra reúne una selección de capítulos escritos por destacados profesores de la prestigiosa EAE Business School, quienes, con su amplio conocimiento y experiencia, nos ofrecen una visión integral de las oportunidades emergentes en este nuevo escenario.

Cada capítulo aborda aspectos cruciales de nuestros tiempos, explorando las oportunidades desde una perspectiva multidisciplinar y presentando un análisis riguroso basado en la investigación y la experiencia práctica. Los temas tratados abarcan una amplia gama de áreas clave en el entorno empresarial actual, como el impacto de la inteligencia artificial, la evolución del trabajo a distancia y el teletrabajo, la regulación legal de los criptoactivos, la nueva visión estratégica de la responsabilidad social corporativa y la contribución de las empresas al desarrollo sostenible. Los autores, expertos en sus respectivos campos, nos guían a través de un análisis exhaustivo y nos brindan valiosas perspectivas sobre cómo adaptarnos y prosperar en esta nueva realidad.

«Oportunidades en el mundo empresarial pos-pandemia: un análisis multidisciplinar» es un claro testimonio del compromiso de la EAE Business School con la excelencia académica y la formación de líderes empresariales preparados para afrontar los desafíos de un entorno empresarial en constante evolución. Este libro se presenta como una valiosa herramienta para estudiantes, profesionales y emprendedores que desean comprender este nuevo contexto.

Agradecemos sinceramente a los autores por sus significativas contribuciones, y al equipo de edición por su arduo trabajo en la compilación de este libro. Cada capítulo representa un esfuerzo conjunto para proporcionar a los lectores un compendio completo y actualizado sobre las oportunidades y desafíos a las que nos enfrentamos.

Invitamos a los lectores a sumergirse en las páginas de este libro y a explorar el futuro que nos espera en el mundo empresarial pos-pandemia. Que las ideas presentadas aquí sirvan de inspiración y guía en su camino hacia el crecimiento y el éxito empresarial en esta nueva era.

Dr. Antonio Rodríguez Ruibal

Decano EAE Business School Madrid

1 El impacto de la Inteligencia Artificial: una aproximación desde la óptica jurídica

David López Jiménez

EAE Business School

Víctor Manuel Castillo Girón

Universidad de Guadalajara

I. Introducción

A la inteligencia se le imputa la capacidad de entender y comprender, que incorpora su mayor naturaleza aspirativa, en la que parece no haber límites. También alude a su nivel de expresión más tangible como la habilidad, la destreza y la experiencia que son su aplicación más visible o real. Asimismo, se apunta a su naturaleza espiritual lo que le permite conectar con las virtudes humanas, activarlas y darles un mayor sentido. Estamos frente a un fenómeno que ostenta la capacidad de interpretar datos externos, para aprender de los mismos y poder utilizar esos conocimientos para realizar tareas y metas en virtud de la adaptación flexible.

Es ciertamente complejo concretar el origen del fenómeno de la Inteligencia Artificial –IA–. Existen instrumentos que podrían considerarse manifestaciones rudimentarias del mismo, como, entre otros, la máquina universal –que parte de un componente físico– de Alan Turing (1936) o el computador de John Von Newman (1950). Puede, igualmente, mencionarse una conferencia celebrada en los Estados Unidos –Dartmouth College, 1956– que se posiciona en los albores de esta sugerente cuestión. En relación a la misma, cabe citar a científicos como John McCarthy, Marvin Minsky, Allen Newell y Herbert Simon. A partir de la década de 1970, la IA se centró cada vez más en el desarrollo de algoritmos de aprendizaje automático, que permitían a las máquinas formarse a través de la experiencia. A medida que la potencia de procesamiento y la cantidad de datos disponibles aumentaron, la IA se volvió más sofisticada y comenzó a ser utilizada en una amplia gama de aplicaciones.

Aunque no existe una definición unánime de IA, la misma constituye un campo de la Ciencia y de la Ingeniería que se ocupa de la comprensión –desde el punto de vista informático– de lo que se denomina comportamiento inteligente. El Libro Blanco sobre la IA (un enfoque orientado a la excelencia y la confianza) la define a partir de sus tres elementos esenciales: conjunto de datos, conjunto de algoritmos y capacidad informática. Se trata de un sistema que, en definitiva, busca imitar las diversas capacidades del cerebro humano para presentar comportamientos inteligentes, sintetizando y automatizando actividades intelectuales. A este respecto, la Real Academia de la Lengua dispone que es la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana como el aprendizaje o el razonamiento lógico. La IA se considera como la Ciencia e ingenio de hacer máquinas inteligentes, sobre todo programas de cálculo inteligente.

La IA se está implementando cada vez más en todo el mundo, y se espera que continúe expandiéndose en una notable variedad de sectores. Habida cuenta de la relevancia de la IA, determinados países, como España (1) , han creado una Agencia de Supervisión de la Inteligencia Artificial. Esta última se enmarca en la Agenda España Digital 2026, en la Estrategia Nacional de Inteligencia Artificial y en el Plan de Recuperación, Transformación y Resiliencia.

Resulta ciertamente complejo poder efectuar predicciones en esta materia, dada la celeridad a la que evoluciona. Asistimos, con cierto asombro, al desarrollo de sistemas de IA impensables hace unos años. Con relativa habitualidad, tenemos conocimiento de una nueva aplicación o avance en este avance científico o tecnológico por el impulso de empresas (multinacionales y start-up), así como de Universidades y centros de investigación. Bajo la cobertura del fenómeno de la IA, se engloban realidades muy heterogéneas. Dentro de los mismos, podemos, a título de ejemplo, referirnos al caso de los robots inteligentes y los problemas que se suscitan a propósito de su posible personalidad electrónica; los vehículos autónomos; los drones; y la salud digital. A las particularidades que cada uno de ellos plantea, desde una óptica jurídica, nos referiremos seguidamente.

II. Marco ético de la IA

La IA, cada vez en mayor medida, se emplea en más procesos y acciones, por lo que así pueden acometerse mejor y con más celeridad, automatizándose actividades que hasta hace poco estaban reservadas a las personas. Uno de los criterios que resulta más difícil de superar es la evaluación ética de los descubrimientos científicos. Cuando la Ciencia protagoniza determinados avances, se plantean ciertos cuestionamientos, a propósito de la ética, así como si la nueva situación es compatible con nuestros valores comunes. Que la tecnología se preste a distintos usos no es equivalente a que la tecnología en sí misma resulte neutral. A priori, podría entenderse que la misma está diseñada para ayudar al cumplimiento de fines e intereses humanos que sean buenos para los individuos y grupos, pero también para el conjunto de la sociedad. Un sector de la doctrina (2) ha planteado un marco ético (3) para el examen de estas tecnologías según la modalidad de tecnología, su significado y su proyección de futuro. En estos ámbitos se suele aludir a diversos problemas vinculados con la igualdad y no discriminación, la protección de datos personales, la responsabilidad, la autonomía, entre otros. Numerosos estudios se han referido a los eventuales riesgos y violaciones que pueden plantearse en relación a ciertos derechos fundamentales (4) .

Una de las cuestiones que plantean más problemas es la autonomía de las aplicaciones o de los sistemas inteligentes. En el caso de que la obra se desvincule de su autor para adoptar decisiones, sobre todo cuando las mismas sean inesperadas, entramos en el terreno de la incertidumbre.

Los sistemas inteligentes cuentan con determinadas facultades que, de hecho, superan a las humanas como, entre otras, son la ausencia de frustración en la consecución de metas, los dilemas perturbadores y la reflexión. El escenario que se plantea cambia cuando surge el atisbo de sentimientos donde se empezarían a reproducir todos los males que interfieren en las actividades de los seres humanos.

Otra materia que se discute es si existirá un momento en el que se pueda afirmar que las máquinas tengan algo asimilable a la conciencia. El punto de partida, en este sentido, es que no existe consenso sobre este último término. Con carácter general, se entiende que es tener percepción del entorno. Debe discernirse, pues no son lo mismo, la capacidad de sentir –que puede ser hambre, frío o calor– y la autoconciencia –que aludiría a la reflexión de quién soy y mi labor en este mundo–. De esta manera, podemos afirmar que la conciencia perceptual es relativamente sencilla de reproducir, si bien la autoconciencia no sólo es más compleja de imitar en sistemas artificiales, sino incluso de definir cuando se refiere a humanos. Podría, por tanto, afirmarse que realmente no hay conciencia, dado que lo que impera es una imitación a partir de determinados datos. Los sistemas de IA no pueden sentir motivaciones internas, dado que todo cuanto externalizan obedece a una previa información descausalizada. La máquina inteligente no es capaz de describir estados emocionales procedentes del entorno y de su aprendizaje, sino que únicamente puede calcular posibles escenarios, dependiendo de la información que se le haya suministrado, adaptando, para ello, la decisión teóricamente conveniente.

Han de replantearse los criterios éticos que deben incidir en el desarrollo de la IA (5) , prestando especial atención a parámetros universales como son el bien y el mal en abstracto. La cuestión que, en cierto sentido, podría advertirse es si resulta posible imprimir en los sistemas de IA propósitos únicamente positivos, así como enseñarles de determinada manera.

En 2018, en el seno de la Comisión Europea, se debatieron las distintas sensibilidades respecto a la regulación ética de la IA. Europa es consciente de que debe tomarse partido, en esta sugerente materia, y adelantarse a una tendencia normativa mundial que probablemente no sea ágil. No resulta sencillo proponer un marco ético de acción porque la temática despierta tantas incertidumbres como posibilidades.

III. Derecho de la IA

Como la realidad cotidiana pone de manifiesto, la IA ha evolucionado con notable celeridad en los últimos años. Se ha convertido en una herramienta de utilidad en diversos sectores como los vehículos autónomos, la salud o la automatización de los procesos. La tecnología debe estar al servicio de las personas, pero no debe convertirnos en sujetos pasivos que estén a merced de las máquinas, que limiten la libertad y la capacidad de iniciativa (6) .

Ahora bien, existe cierta preocupación por la ausencia de regulación legal sobre la materia. Debe tomarse conciencia del hecho de que la IA tiene una doble faceta. Por un lado, tal herramienta es susceptible de ayudar a la resolución de problemas de cierta complejidad. Por otro lado, puede utilizarse con fines eventualmente espurios. Dentro de los últimos supuestos podemos referirnos a los casos en los que se utilizan sistemas de reconocimiento facial que podrían ser susceptibles de discriminar determinados grupos étnicos.

A todo ello trata de responder la normativa legal aprobada por parte del legislador que es objeto de complemento en virtud de la autorregulación de la industria. A nivel comunitario, cabe destacar la Propuesta de Reglamento de la IA, que presenta un alcance general y que será obligatoria en todos sus elementos y directamente aplicable a todos los Estados. En este sentido, cuando entre en vigor, sus preceptos tendrán fuerza de ley, a diferencia de los códigos éticos que tienen carácter facultativo.

1. Normativa imperativa sobre la materia

Dentro de la cuarta revolución industrial y la era de la información, los Estados Unidos, la Unión Europea, organismos internacionales –como la ONU– y determinadas empresas privadas –como Google, IEEE y Microsoft– con una notable influencia en el desarrollo tecnológico actual de la humanidad, nos permite afirmar la tendencia hacia la configuración de un elenco de principios básicos en materia de regulación jurídica de la IA. Antes de entrar en materia, podemos enunciar las populares tres leyes de la robótica formuladas por Asimov: 1. Un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño; 2. Un robot debe cumplir las órdenes dadas por parte de los seres humanos, salvo que entren en conflicto con la primera ley; 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley. La economía mundial está entrando en una etapa en la que la IA ostenta el potencial para liderar nuevos tiempos.

En este apartado, cabe plantearse si es conveniente una regulación general o sectorial de la IA. Estados Unidos todavía no ha introducido legislación horizontal en el espacio digital, priorizando las leyes sectoriales y, además, fomenta la innovación en IA. En este sentido, debe ponerse de relieve que una normativa sectorial dejaría sin regular numerosas aplicaciones de la IA aplicadas al uso general. Por el contrario, una regulación general, serviría de base, jurídica y ética, para los especiales desarrollos particulares de la IA.

A nivel europeo, en abril de 2021, se aprobó, por parte de la Comisión Europea, la propuesta de Reglamento de IA. Dicho documento tiene por objeto armonizar las normas relativas a la IA en la Unión Europea para alcanzar un marco jurídico uniforme protector de los derechos fundamentales de los ciudadanos. Permitir que los Estados legislen, de forma independiente, puede implicar la fragmentación del mercado interior y, además, reducir la seguridad jurídica de los operadores que desarrollan, importan o utilizan sistemas de IA.

Asimismo, busca crear un espacio seguro para la innovación en IA que ostente un elevado nivel de protección del interés público, la seguridad, así como los derechos y libertades fundamentales. También se persigue que cree las condiciones para un ecosistema de confianza que fomente la adopción de servicios de IA. La propuesta sigue un enfoque basado en el riesgo, lo que implica que se aplicarán ciertas obligaciones y restricciones según el nivel de riesgo derivado del uso de la IA. El Reglamento establece una serie de mecanismos de control para garantizar el cumplimiento de las normas, incluyendo la designación de autoridades nacionales de supervisión y la posibilidad de imponer sanciones por la inobservancia de las normas.

El Reglamento será aplicable a todos los usos de la IA que afecten a los ciudadanos de la UE con independencia de la sede del proveedor de servicios o del lugar en el que ejecute el sistema (dentro o fuera de las fronteras de la UE). En esta línea se posicionan otros Reglamentos de la UE, como el Reglamento General de Protección de Datos, y otras propuestas legislativas, como la Digital Markets Act y la Digital Services Act.

Posteriormente, tuvo lugar el proceso ordinario de legislación de la Unión Europea. Esto supone que el Consejo de la Unión Europea y el Parlamento Europeo adopten sus posturas en relación a la propuesta de la Comisión, para, a continuación, llegar a un acuerdo en las negociaciones, y poder alcanzar un texto definitivo. En diciembre de 2022, el Consejo de la Unión Europea se posicionó respecto a la propuesta de Reglamento de Inteligencia Artificial. Asimismo, el trabajo en el Parlamento Europeo progresa con cautela.

Con carácter general, parece un texto con un articulado adecuado para ofrecer un entorno de confianza para que Europa sea un referente en los sistemas de IA innovadores en los que se tutelen los derechos y las libertades de acuerdo con los valores de la UE.

2. El sugerente complemento de la autorregulación de la industria

Existen diversas vías en base a las que puede encauzarse el desarrollo, despliegue y utilización de la IA. Cómo hace más de dos décadas determinó el reconocido abogado Lawrence Lessig –profesor de Derecho de la Universidad de Harvard, Standford y Chicago, además de fundador de Creative Commons–, respecto a la ordenación de la Red, la propia tecnología, en virtud del código informático, implica una forma material de ordenación, al fijar las características y límites de los sistemas. La autorregulación se refiere al conjunto de políticas, buenas prácticas, y códigos de conducta con un marcado carácter ético que se establecen para garantizar que los sistemas de IA sean seguros, éticos y responsables en los procesos de toma de decisiones.

El fenómeno de la autorregulación –soft law– goza de un mayor protagonismo y desarrollo en el mundo anglosajón, en la que la industria se adelanta al legislador, mientras que en el Derecho continental europeo es el legislador el que fomenta el recurso a este instrumento, a través del Derecho imperativo –hard law–. En materia tecnológica, existen ciertas corrientes que no se posicionan a favor del Derecho imperativo en esta materia. Podría tratarse de una prevención general que tiende a ver el Derecho, en sentido estricto, como una limitación para el desarrollo tecnológico o social. En cualquier caso, estimamos que es un planteamiento erróneo, pues la autorregulación complementa, pero no sustituye, la normativa legal vigente en cada momento. Los instrumentos legislativos crean un marco de seguridad jurídica, haciendo realidad las aspiraciones éticas, fijando incentivos adecuados, y medidas que aseguren el respecto de los derechos fundamentales. La función que el Derecho desempeña no se puede sustituir, siempre en coordinación con mecanismos de autorregulación.

La autodisciplina puede incluir la implementación de mecanismos de verificación y auditoría para detectar y corregir posibles sesgos o eventuales discriminaciones en los algoritmos de IA, así como el establecimiento de estándares de privacidad para proteger los derechos de las personas afectadas por el uso de esta tecnología. La autorregulación de la industria incide en el alcance que tendrán las tecnologías de IA, teniendo la virtud de su fácil adaptación ante el desarrollo tecnológico y su interiorización.

Existen diversas iniciativas que, sobre este particular, conviene destacar. Hay algunos códigos de conducta que se vinculan con las declaraciones unilaterales de voluntad –como el código de conducta de Bosch relativo a la IA–. Asimismo, existen otros documentos, como la Guía de buenas prácticas para el uso de la IA ética. Este último documento ha sido elaborado por OdiseIA, PwC, Google, Microsoft, IBM y Telefónica.

IV. Algunas manifestaciones de la IA

Como la realidad cotidiana pone de manifiesto, estamos frente a un cambio social que ya ha comenzado, si bien todavía no se ha llegado a dar en su totalidad. El potencial disruptivo de la IA es muy notable, siendo patente su capacidad para hacer posible mejores condiciones de vida, atención del medio ambiente (sostenibilidad), crecimiento económico, eficiencia y calidad respecto a los servicios en los que se implementa. Los límites de la Ciencia en la creación de máquinas inteligentes, a fecha de hoy, no se han alcanzado. El nivel de autonomía de las máquinas que se utilizan es reducido. En este sentido, se ignora cuál es el que pueda a llegar a alcanzarse en el futuro, si bien la interacción que los sistemas de IA tienen con los seres humanos es progresivamente mayor.

1. Los robots inteligentes: a propósito de su eventual personalidad jurídica electrónica

Con carácter previo al análisis somero de esta sugerente cuestión, debemos dar una definición de robot. No podemos entender por tal las máquinas que efectúan labores meramente reiterativas. Son aquellas que pueden interactuar con las personas o con otros robots, analizar datos, aprender y tomar decisiones de forma autónoma. En definitiva, son aquellas máquinas cuyo comportamiento se asimila más al de los seres humanos (7) . A juicio de algunos, podría equipararse al concepto de «cosa» presente en el artículo 333 del Código civil español. Este último dispone que «todas las cosas que son o pueden ser objeto de apropiación se consideran como bienes muebles o inmuebles». Aunque se diferencien de las cosas, por la capacidad de aprendizaje que ostentan, continuarán siendo cosas, pero, por su singularidad, en el futuro gozarán de un tratamiento distinto (8) . La cuestión sobre la personalidad jurídica de la IA pone la atención sobre algunos aspectos muy problemáticos que el Derecho tiene con el concepto de personalidad. Abordar este problema de la IA pone de relieve que no disponemos de una teoría satisfactoria de la personalidad jurídica o moral (9) .

A nivel comunitario, los diversos instrumentos normativos que se han pronunciado, a este respecto, no se refieren a la personalidad jurídica de los robots (10) . En este sentido, recientemente la UNESCO aprobó las Recomendaciones sobre ética de la IA, destacando la número 68 que rechaza el reconocimiento de personalidad jurídica a los robots. Estos últimos que pueden adoptar decisiones de manera autónoma, no tienen personalidad jurídica, por lo que no se les puede atribuir responsabilidad por los daños y perjuicios que produzcan a terceros, debiendo responder, en consecuencia, una persona (física o jurídica).

Uno de los problemas más significativos que los robots plantean es el de su responsabilidad. Para poder responder a tal extremo, se recurre a la a Directiva 85/374/CEE del Consejo de 25 julio 1985 relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos. La citada norma europea es objeto de complemento por parte de la a Directiva 2019/771, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de compraventa de bienes, por la que se modifican el Reglamento (CE) n. 2017/2394 y la Directiva 2009/22/CE y se deroga la Directiva 1999/44/CE. Cabe reseñar que, aunque la última norma europea no aborda por completo el tema que es objeto de examen, incluye nuevas medidas aplicables a los sistemas de IA. Nos referimos a la posibilidad de permitir la formación de un litisconsorcio pasivo necesario entre usuario del producto, vendedor del mismo, desarrollador y fabricante.

Ahora bien, en este orden de cuestiones, la normativa podría incluir sistemas para eludir la responsabilidad de los productos defectuosos. En el caso de España, puede citarse, entre otros, el art. 140 del Real Decreto Legislativo 1/2007, de 16 de noviembre, por el que se aprueba el Texto Refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias –TRLGDCU–, a propósito de las causas de exoneración de la responsabilidad, en su letra e), dispone que el productor no será responsable si prueba que el estado científico técnico del conocimiento existente en el momento de la puesta en circulación del producto no permitía apreciar la existencia del defecto. Las causas de exoneración que, con carácter general, se incluyen en el art. 140 de la mencionada norma parecen complejas de aplicar a la IA y a los robots. En estos supuestos lo más aconsejable sería establecer un sistema de responsabilidad objetiva (11) –atribuible al propietario, arrendador o poseedor– complementado en virtud de un seguro obligatorio de responsabilidad civil que tuvieran que celebrar los usuarios de robots autónomos (12) . Asimismo, sería deseable la existencia de un Fondo de compensación de seguros en esta materia (especialmente útil en los casos de ausencia de seguro). La nueva casuística que surge, debido a la autonomía de los robots, da lugar a un nuevo espacio sobre la responsabilidad que se deriva del comportamiento de quienes diseñan, programan o manipulan tecnologías cuya funcionalidad depende de la IA (13) .

En este último sentido, cabe considerar que la Propuesta de Directiva para adaptar las normas de responsabilidad extracontractual en la Inteligencia Artificial, de 28 de septiembre de 2022, establece que, ante la dificultad de poder probar el acto ilícito, así como la identificación del causante del daño, se propondrán nuevas obligaciones de información, por parte de las empresas, y la reducción de la carga de la prueba en los procedimientos de reclamación de daños y perjuicios producidos por los sistemas de IA.

En definitiva, para los daños que produzcan los robots a terceros se aplicará la normativa sobre productos defectuosos si concurre responsabilidad del fabricante, mientras que si los daños se producen por actuaciones del usuario se aplicará el régimen general de responsabilidad. En el caso de la responsabilidad civil contractual se recurrirá al art. 1101 del Código civil y para la responsabilidad civil extracontractual el art. 1902 del mismo cuerpo legal. En cualquier caso, mientras más elevado sea el nivel de autonomía de los robots, más complejo será aplicar la normativa sobre responsabilidad civil, pues la responsabilidad de los diversos agentes podría quedar, en cierta medida, diluida.

2. Los vehículos autónomos

El término «vehículo» se utiliza para hacer alusión a aquellos aparatos adecuados para circular por las vías o terrenos, según la definición ofrecida por el Anexo I, en su punto sexto, del Real Decreto Legislativo 6/2015, de 30 de octubre, por el que se aprueba el Texto Refundido de la Ley sobre el Tráfico, Circulación de vehículos a motor y seguridad vial. La conducción autónoma está alcanzando tal nivel de desarrollo que se asimila a la de carácter humano. En la medida en que aumenta el nivel de automatización, las funciones a desarrollar por las personas van simplificándose. De ser el protagonista activo de la conducción llega a ser un mero supervisor del sistema y cuando la conducción está plenamente automatizada, es una suerte de pasajero que inserta en el sistema las coordenadas de destino.

Existen varios fabricantes de coches autónomos (14) como, entre otros, Google, Tesla, Volvo, Toyota, Waymo, Cruise, Argo AI, Aurora y Mercedes Benz. Para poder desarrollar su labor recurren a diversos instrumentos técnicos como, entre otros, sensores, radares, láseres, cámaras y GPS. Desde hace algunos años, existen vehículos que, entre otros avances tecnológicos, funcionan con velocidad de crucero, asistente de mantenimiento de carril o aparcamiento asistido. Resulta importante que los sistemas de IA aprendan de la experiencia y puedan predecir cómo se desarrollará la situación. Con la cantidad de información que progresivamente se va a ir integrando en los sistemas de IA, se irán desplegando modelos de situación que se almacenarán en redes neuronales, a partir de los cuales se desarrollarán nuevos algoritmos que se implantarán en el vehículo autónomo. En toda situación, la IA del vehículo se beneficiará a la experiencia de una ingente cantidad situaciones, para tomar la decisión correcta en un brevísimo lapso de tiempo. Ahora bien, no sólo se busca que los vehículos cuenten con cada vez más avances, dado que se persigue que las infraestructuras sobre las que los mismos se desplazan también incorporen ciertas mejoras –smart-roads–. Dentro de estas últimas, entre otras, podemos señalar las siguientes: instalación de sensores y cámaras que capten determinada información y la transmitan a los vehículos conectados; luminarias inteligentes; pinturas fotosensibles; y pasos de cebra inteligentes. Todo ello representará ciertas ventajas para sus usuarios. Dentro de los mismos, podemos señalar, sin ánimo agotador, la reducción de accidentes (debido a una mayor seguridad); un medio ambiente más limpio y sostenible; y conocimiento, a tiempo real, del estado y saturación de las carreteras.

Ahora bien, no todo son prerrogativas, ya que imperan ciertos riesgos que no han de pasar desapercibidos. Uno de los ámbitos en los que pueden plantearse violaciones es el de la privacidad. En efecto, las aplicaciones a las que las marcas de los vehículos recurren (así, por ejemplo, Audi Conect, Mercedes Me, Apple Carplay y Android Auto) para permitir ciertas funcionalidades permiten establecer estilos de vida (trazando determinados perfiles), acceder a nuestra agenda de contactos, conocer nuestra voz y leer mensajes –a través de instrumentos de mensajería instantánea o directa–. En los supuestos que se enumeran se están tratando datos de carácter personal, por lo que tales actividades están sujetas al Reglamento Europeo de Protección de Datos (RGPD), así como a la Ley Orgánica 3/2018 de 5 de diciembre, de Protección de Datos Personales y Garantía de los derechos digitales.

Aunque pueda parecer remoto, aprovechando sus vulnerabilidades (15) , cabe la posibilidad de que los vehículos autónomos se utilicen como una suerte de herramientas de ataque. Dado que los vehículos autónomos, en virtud de sistemas de visión y procesamiento de la información, identifican a los peatones, si se modifican ciertos píxeles de esas imágenes, podría evitarse que el sistema detectase un peatón, para, así, impedir el frenado del vehículo, pudiendo causar un accidente.

Con el devenir de los años, y la perfección de los sistemas de IA aplicados a los vehículos, los accidentes de tráfico se deberán cada vez más a fallos del sistema y menos a la conducta de las personas –esto último es lo que, dicho sea de paso, impera a fecha de hoy–, a diferencia de la situación presente, en que es el conductor a quien se le imputa la responsabilidad por los daños causados. De ahí que normalmente el productor no tenga que responder. Uno de los mayores desafíos a los que deberán enfrentarse los legisladores en esta materia es que no sólo tendrán que adaptar la normativa de tráfico y seguridad vial, carnet de conducir, y el sector asegurador, dado que la introducción de los mismos tendrá consecuencias en la casi totalidad de las ramas del Derecho. Aunque debería desarrollarse normativa con alcance global, la diversidad legislativa es ciertamente notable. Así, existen países que han legislado sobre la materia, como Estados Unidos o Corea del Sur, mientras que otros Estados, como España e Italia, no cuentan con normas al respecto. En España, de hecho, no está permitido el uso de vehículos totalmente autónomos, excepto que se encuentren en fase de pruebas (16) . A nivel comunitario, el Parlamento Europeo (17) se ha manifestado a favor de la regulación de la cuestión que se analiza para ofrecer seguridad jurídica tanto a usuarios como partes interesadas.

En todo caso, el actual régimen legal se verá remplazado cuando se efectúe la comercialización masiva de los vehículos autónomos y entren en circulación en el mercado. Dado que el sistema de conducción avanzada está al mando del vehículo y ejecuta sus oportunas decisiones, en este sentido, será el productor el que habrá de responder de los daños causados, según el Real Decreto Legislativo 1/2007, de 16 de noviembre, por el que se aprueba el texto refundido de la Ley General para la Defensa de los Consumidores y Usuarios y otras leyes complementarias. Ahora bien, el operador también podrá ser responsable, de acuerdo con el art. 1902 Código Civil. En efecto, ello acontecería en el supuesto de la omisión del preceptivo y periódico mantenimiento del vehículo, o actuase con culpa o negligencia.

3. Los drones

Cada vez más empresas recurren a los Vehículos Aéreos No Tripulados –UAV–, o coloquialmente llamados drones, para efectuar sus actividades (18) . A tenor del Real Decreto 601/2016, de 2 de diciembre, por el que se aprueba el Reglamento de la Circulación Aérea Operativa, en este concepto puede entenderse incluido todo «vehículo aéreo propulsado que no lleva personal como operador a bordo». Aunque el dron sea reputado un vehículo aéreo no tripulado, a tenor de la Ley 48/1960, de 21 de julio, sobre Navegación Aérea, debe ser considerado una aeronave. Asimismo, el Convenio sobre Aviación Civil Internacional de 1944 –conocido como Convenio de Chicago– recurre al término de «aeronave sin piloto», prohibiendo su vuelo en el territorio de los Estados parte, salvo que tenga autorización de este último. A nivel español, el Real Decreto 1036/2017 define la aeronave pilotada por control remoto como una aeronave no tripulada que se dirige a distancia desde una estación de pilotaje remoto.

El ámbito civil de los drones se está desarrollando de manera rápida gracias a la transferencia de tecnologías desde el sector de la defensa o militar. Las posibilidades que los mismos ofrecen son muy variadas: control industrial, vigilancia y fotografía aérea que, unida a la IA, proporciona una visión computarizada. Hace algunos años, Amazon se planteó recurrir a los mismos para automatizar la entrega de pedidos. En virtud de estos dispositivos, los tiempos de entrega podrían reducirse de manera significativa. En cualquier caso, los drones, para poder desarrollar su labor de manera exitosa, requieren la participación de humanos, con carácter previo, que, entre otras actividades, planifiquen la acción, efectúen un análisis topográfico de la zona y estudien el tráfico aéreo. La IA aplicada a los mismos puede reducir el margen de error, restringiendo el lapso temporal para tomar cualquier decisión. Existen múltiples iniciativas –Microsoft AirSim; Microsoft y DJI– que han recurrido a la IA para fomentar el uso de la IA y machine learning en estos dispositivos.

Sobre esta materia, a nivel comunitario, cabe referirse a los siguientes documentos: Reglamento 2018/1139, sobre normas comunes en el ámbito de la aviación civil y por el que se crea una Agencia de la Unión Europea para la seguridad aérea; Reglamento 2019/945, sobre los sistemas de aeronaves no tripuladas y los operadores de terceros países de sistemas de aeronaves no tripuladas que establece los requisitos para el diseño y la fabricación de los sistemas de aeronaves no tripuladas; y el Reglamento 2019/947, relativo a las normas y los procedimientos aplicables a la utilización de aeronaves no tripuladas.

Ahora bien, a pesar de sus múltiples prerrogativas, los drones pueden vulnerar la normativa en materia de protección de datos. Existen grupos de derechos y libertades civiles que han mostrado su preocupación, solicitando controles más rigurosos para proteger la privacidad. La información que se recoge por los drones, especialmente cuando la utilizan los Gobiernos o las fuerzas de seguridad, es muy sensible. En este sentido, los piratas informáticos podrían acceder a importantes cantidades de datos que almacenan, pero también a la información del servidor central al que estén conectados.

4. La salud digital

La aportación de la IA es un beneficio que nos aporta el progreso científico y tecnológico, que supondrá una mejora de la atención sanitaria y, por tanto, en un mayor nivel de salud de las personas. La OMS por salud considera el estado de completo bienestar físico, mental y social y no sólo la ausencia de enfermedades. Una de las grandes aportaciones de la IA será constituirse en un instrumento de apoyo para el profesional sanitario para ofrecer diagnósticos y tratamientos más rápidos, fiables, personalizados y precisos. Por otro lado, para los pacientes, abrirá la puerta a nuevas posibilidades de tratamiento de enfermedades que en fechas pretéritas podían no tener buen pronóstico.

La necesidad de digitalizar la salud –y cuando ha sido posible recurrir a la IA– es uno de los aprendizajes de la crisis sanitaria producida por la pandemia del coronavirus a nivel mundial. Los sistemas tecnológicos de IA, fomentados con los requerimientos de la pandemia (19) , con la necesidad de crear y consolidar mecanismos de rastreo y seguimiento de contactos, ha impulsado el recurso a adaptaciones tecnológicas digitales. La digitalización, en este sentido, se erige en un requerimiento para mantener la funcionalidad del servicio público sanitario.

La salud digital se refiere al uso de tecnologías digitales (como la telemedicina (20) , la salud móvil, las consultas por videollamada y los registros electrónicos de salud) para mejorar la atención médica y la calidad de vida de los pacientes. En materia de salud, la IA se utiliza para optimizar el diagnóstico, la toma de decisiones clínicas, la gestión de datos y la automatización de tareas repetitivas.

La combinación de la salud digital y la IA puede mejorar la atención médica, ya que posibilita una mayor personalización de los tratamientos, una mejor prevención de enfermedades y una atención más eficiente. Se trataría, en definitiva, de dar al paciente correcto el tratamiento adecuado, en su dosis precisa, en el momento oportuno. En cualquier caso, también hay desafíos asociados con estas tecnologías como, entre otros aspectos, la privacidad y la seguridad de los datos. La IA necesita importantes cantidades de datos de pacientes para aprender y mejorar sus algoritmos. La recopilación y el uso de estos datos pueden suscitar ciertos problemas de privacidad y seguridad. Por ello, es necesario garantizar que los datos sean recopilados y utilizados de manera ética y legal.

A nivel comunitario, la prestación de servicios de salud digital es objeto de regulación por parte de los arts. 56 y 57 del Tratado de la Unión Europea –TUE–. Desde la perspectiva de la asistencia sanitaria privada, la medicina digital ha de ser disciplinada como servicios dirigidos a usuarios que los contratan en su doble condición de consumidores y de pacientes. En la actualidad resultan de aplicación los siguientes documentos: Directiva 98/34 sobre servicios de la sociedad de la información; Directiva 2000/31, sobre comercio electrónico; Directiva 2019/2161 respecto a la mejora de la aplicación y la modernización de las normas de protección de los consumidores de la Unión, cuyas normas afectan al TRLGDCU; Directiva 2011/24 sobre derechos de los pacientes en la asistencia sanitaria transfronteriza; y el Reglamento 2016/679 sobre protección de las personas físicas respecto al tratamiento de datos personales y la libre circulación de dichos datos.

La IA en la atención médica plantea importantes dilemas en el plano de la ética y de la responsabilidad. Así, por ejemplo, podría suscitarse la duda de quién es responsable cuando se plantean errores o daños generados por sistemas de IA y cómo debe manejarse la toma de decisiones complejas que involucran valores éticos.

En definitiva, la aplicación de las diversas tecnologías que se integran dentro de la IA en el ámbito sanitario aportará aspectos positivos para los usuarios, los profesionales de los servicios de salud y para el interés general –al que responde la actuación de las administraciones sanitarias–. Estamos ante un instrumento tecnológico que puede facilitar el incremento del nivel de salud a título individual y colectivo de la salud pública.

V. Conclusiones

La IA está transformando la sociedad en múltiples aspectos. A medida que las aplicaciones de IA son más sofisticadas, es necesario que los sistemas normativos evolucionen para abordar los desafíos y oportunidades que se presentan. La IA tiene un objetivo en virtud de un algoritmo: un elenco de instrucciones u órdenes que una computadora debe ejecutar.

Un alto porcentaje de los robots a los que se recurre, aun siendo precursores de la IA, tienen en común un carácter que es nuclear para la valoración de su responsabilidad: la máquina funciona y adopta decisiones que han de ser controladas por las personas que la han diseñado, programado o utilizado en base a los sistemas de retroalimentación informativa que la misma proporciona. En términos de regulación, ciertos Estados han desarrollado leyes específicas para regular la IA, mientras que otros están trabajando en ellas. La Unión Europea ha adoptado una propuesta de Reglamento sobre la IA que busca establecer un marco legal para el uso de la IA, y otros países han seguido su ejemplo.

Dado que la Ciencia avanza, de manera imparable, y más, si cabe, cuando presenta un retroalimentador que la impulsa, es probable que rebase los límites de la ética, pudiendo, en este sentido, en ciertas ocasiones, adentrarse en lo ilícito. Es, en este momento, cuando debe intervenir el Derecho. La actualidad supera a la normatividad y la realidad, si no siempre supera a la ficción, en muchas ocasiones, llega a confundirse con la misma. Nos encontramos ante el momento de la reflexión de lo que merece la pena buscar. Probablemente, hablar de las perspectivas futuras de la IA sea algo en vano –condenado al fracaso–. En este sentido, se trata de un modelo de prospección que, en el momento de su proposición, estaría obsoleto.

La regulación de la IA debe equilibrar la necesidad de promover la innovación y el crecimiento económico con la necesidad de proteger ciertos derechos y garantizar la seguridad y el bienestar público. Las soluciones legales deben ser flexibles para abordar los desafíos en constante evolución que plantea la IA.

Un instrumento que podría complementar –que no sustituir–, de manera efectiva, la normativa que, en este sentido, se apruebe, es la autorregulación de la industria. Esta última se refiere a la capacidad de los desarrolladores y usuarios de la IA para establecer normas éticas y buenas prácticas que rigen su uso y desarrollo. Las regulaciones existentes pueden no ser suficientes para abordar todos los problemas que surgen de la IA. Además, la rápida evolución de la tecnología puede determinar que las leyes existentes sean obsoletas en un corto espacio de tiempo. La autorregulación en la IA también tiene sus limitaciones. En este sentido, los desarrolladores y usuarios de la IA pueden no estar motivados para observar las normas éticas voluntarias si no existen incentivos adecuados.

(1)

La Administración General del Estado espera que, para 2030, el 75% de las compañías españolas dispongan de programas de IA. En el caso de España, que cuenta con un alto porcentaje de pymes, no es algo trivial.

Ver Texto (2)

HOPSTER, J., «The Ethics of Disruptive Technologies: Towards a General Framework». En DE PAZ SANTANA, J. F. (Ed.), New Trends in Disruptive Technologies, Tech Ethics and Artificial Intelligence. DiTTEt 2021. Advances in Intelligent Systems and Computing, Springer, Cham, 2022, pp. 1-12.

Ver Texto (3)

Podemos definir la ética como un elenco de normas morales que regulan la conducta de la persona en cualquier ámbito de la vida o, tomando una definición más amplia de la ética, como el estudio de los bienes, normas y conductas que contribuyen al desarrollo de la vida humana. En este sentido, STERBA, J. P. Ethics: The big questions, John Wiley & Sons, Reino Unido, 2009.

Ver Texto (4)

LETTIERI, N., Antigone e gli algoritmi. Appunti per un approccio giusfilosofico. Prassi sociale e teoria giuridica, Stem Mucchi Editore, Modena, 2020; VANTIN, S., «Inteligencia Artificial y Derecho discriminatorio». En LLANO ALONSO, F., GARRIDO MARTÍN, J. (Eds.), Inteligencia Artificial y Derecho. El jurista ante los retos de la era digital, Thomson Reuters Aranzadi, Navarra, 2021, pp. 367-384.

Ver Texto (5)

JOBIN, A., IENCA, M. y VAYENA, E. «The global landscape of AI ethics guidelines», Nature Machine Inteligence, Vol. 1, núm. 9, pp. 389-399.

Ver Texto (6)

EBERS, M. «La utilización de agentes electrónicos inteligentes en el tráfico jurídico: ¿Necesitamos reglas especiales en el Derecho de la responsabilidad civil?», Indret, núm. 3, 2016, p. 6.

Ver Texto (7)

La Resolución del Parlamento Europeo, de febrero de 2017, enumera las siguientes características de los robots inteligentes: la capacidad de adquirir autonomía mediante sensores y/o mediante el intercambio de datos con su entorno (interconectividad) y el análisis de dichos datos; la capacidad de aprender a través de la experiencia y la interacción; la forma del soporte físico del robot; y, finalmente, la capacidad de adaptar su comportamiento y acciones al entorno.

Ver Texto (8)

SANTOS GONZÁLEZ M. J., «Regulación legal de la robótica y la inteligencia artificial: retos de futuro», Revista Jurídica de la Universidad de León, núm. 4, 2017, p. 39; ERCILLA GARCÍA, J., «Aproximación a una Personalidad Jurídica Específica para los robots», Revista Aranzadi de Derecho y Nuevas Tecnologías, núm. 47, 2018, pp. 1-38; ROGEL VIDE, C. «Robots y personas», Revista General de Legislación y Jurisprudencia, núm. 1, 2018, pp. 79-90; BARRIO ANDRÉS, M.: «Hacia una personalidad electrónica para los robots», Revista de Derecho Privado, 2018, pp. 89-107; LACRUZ MANTECÓN, M. L. «Potencialidades de los robots y capacidades de las personas», Revista General de Legislación y Jurisprudencia, núm. 1, 2019, pp. 85-129; ROJO GALLEGO-BURÍN, M. «Los fundamentos históricos del sistema jurídico versus la personalidad electrónica de los robots», Revista Jurídica de Castilla y León, núm. 52, 2020, pp. 7-30; RÍOS LÓPEZ, Y. «Inteligencia Artificial y Patentes: ¿Hacia un inventor artificial?». En CERRILLO i MARTÍNEZ, A. y PEGUERA POCH, M. (Coords.), Retos jurídicos de la inteligencia artificial, Thomson Reuters Aranzadi, Navarra, 2020, pp. 225-. 239; LAUKYTE, M. «La relación entre humanos y robots: la maquina inteligente como nueva categoría jurídica». En SOLAR CAYÓN, J. I. y SÁNCHEZ MARTÍNEZ, O. (Dirs.), El impacto de la inteligencia artificial en la teoría y la práctica jurídica, La Ley, Madrid, 2022, pp. 21-43.

Ver Texto (9)

SOLUM, L. B. «Legal Personhood for Artificial Intelligence», North Carolina Law Review, Vol. 70, núm. 4, 1992, pp. 1231-1287.

Ver Texto (10)

Es el caso, entre otros documentos, de la Directiva (UE) 2019/771; las orientaciones éticas para una IA confiable (2019) dadas por el Comité de expertos en IA; las conclusiones de la Presidencia sobre la incidencia de la IA en los derechos fundamentales de la Unión (21 octubre 2020).

Ver Texto (11)

En este caso, debería atenderse a ciertas causas de exoneración de la responsabilidad como la fuerza mayor o la culpa exclusiva de la víctima.

Ver Texto (12)

Podría plantearse la duda de si el obligado a contratar el seguro de responsabilidad civil debería ser el usuario del robot o el fabricante, importador o suministrador del producto.

Ver Texto (13)

Las entidades aseguradoras deben enfrentar este nuevo escenario, ofreciendo un tratamiento más adecuado a ciertos riesgos actuales de las empresas –así, por ejemplo, los ciberataques, el perjuicio reputacional y la pérdida de beneficios–.

Ver Texto (14)

La Dirección General de Tráfico –DGT–, en su Instrucción de 13 de noviembre de 2015, determina que por vehículo autónomo podemos entender aquel que tiene capacidad motriz equipado con tecnología que permita su manejo o conducción sin precisar la forma activa de control o supervisión de un conductor, tanto si dicha tecnología autónoma estuviera activada o desactivada, de forma permanente o temporal. A sensu contrario, aquellos sistemas de seguridad activa o de ayuda a la conducción que necesiten supervisión humana activa quedan excluidos de dicha definición.

Ver Texto (15)

En julio de 2015 dos investigadores norteamericanos de IOActive Labs, lograron manipular el sistema de un Jeep Cherokee, conectando el aire acondicionado, subiendo el volumen de la radio, logrando que se detuviese en mitad de una autopista.

Ver Texto (16)

En 2015, la DGT dictó una instrucción en la que se establecen los presupuestos para la realización de pruebas y ensayos para esta modalidad de vehículos.

Ver Texto (17)

En este sentido, la Resolución, de 15 de enero de 2019, sobre la conducción autónoma en los transportes europeos.

Ver Texto (18)

Sobre este particular, GUERRERO LEBRÓN, M. J., CUERNO REJADO, C. y MÁRQUEZ LOBILLO, P. «Aeronaves no tripuladas: Estado de la legislación para realizar su integración en el espacio aéreo no segregado», Revista de Derecho del Transporte, núm. 12, 2013.

Ver Texto (19)

UEproSalud 2021-2027 constituye la respuesta de la UE a la pandemia del coronavirus e irá más allá de la respuesta a las crisis sanitarias para valorar la resiliencia de los sistemas sanitarios. Se creo por el Reglamento 2021/522. Este proyecto es objeto de complemento con la configuración del futuro digital europeo que se incluye en «Una Europa adaptada a la Era Digital» como una de las iniciativas políticas de la Comisión para el periodo 2019-2024.

Ver Texto (20)

La OMS define la telemedicina como la prestación de servicios de salud por parte de profesionales sanitarios mediante la utilización de tecnologías de la información y la comunicación para el intercambio de información válida para el diagnóstico, el tratamiento, la prevención de enfermedades, la investigación y la evaluación, y para la formación continuada de profesionales sanitarios con el fin de mejorar la salud de la población y de las comunidades.

Ver Texto

2 Trabajo a distancia y teletrabajo, regulación y pronunciamientos recientes en el sector privado

Juan Carlos Merino San Román

EAE Business School

I. Introducción

La pandemia de COVID-19, también conocida como pandemia de coronavirus, declarada por la Organización Mundial de la Salud de emergencia de salud pública de importancia internacional el 30 de enero de 2020 y reconocida como pandemia el 11 de marzo de 2020, ha supuesto un fuerte impulso para la implantación del trabajo a distancia.

A pesar de que esta modalidad de trabajo no es nueva, la crisis sanitaria, las nuevas tecnologías y la velocidad en la digitalización han derivado en un nuevo entorno laboral que ha surgido con fuerza y que, sin ninguna duda, ha venido para quedarse.

Esta nueva tendencia exige al legislador el esfuerzo de adaptar el marco jurídico laboral a las nuevas reglas de juego que van asociadas a esta forma de trabajar. Por ello, con esta voluntad nace la Ley 10/2021, de 9 de julio, de trabajo a distancia (1) .

La Ley 10/2021, de 9 de julio, de trabajo a distancia, es fruto de la tramitación como proyecto de Ley por el procedimiento de urgencia (2) del Real Decreto-ley 28/2020, de 22 de septiembre, de trabajo a distancia (3) , convalidado por el Congreso de los Diputados mediante resolución de 15 de febrero de 2020 (4) .

En palabras de la Excma. Sr. Yolanda Díaz Pérez, Vicepresidenta segunda del Gobierno de España y ministra de Trabajo y Economía Social, se trata de una norma que es fruto del diálogo social (5) y que «...dispone una forma de trabajo que, sin ser nueva, ha adquirido una relevancia y un peso específico desconocido hasta el momento en nuestro país» (6) .

Se trata de una norma que, por una parte, apuesta por la voluntariedad de este modelo de organización laboral, situando a España en la vanguardia del marco europeo en la regulación del trabajo a distancia y, por otra, garantiza a las personas que trabajan a distancia los mismos derechos que las que ejercen sus actividades en locales de la empresa y refuerza el papel de la negociación colectiva, a través de convenios y acuerdos que determinarán condiciones y aspectos relevantes como el derecho a la desconexión, la flexibilidad horaria y la reversibilidad del teletrabajo (7) .

II. Contenido de la Ley 10/2021, de 9 de julio, de trabajo a distancia

La Ley 10/2021, de 9 de julio, de trabajo a distancia consta de un preámbulo, cuatro capítulos, ocho disposiciones adicionales, cuatro disposiciones transitorias y catorce disposiciones finales. El objeto de análisis de este apartado se centra en lo recogido en los cuatro capítulos que la integran. Por tanto, a continuación se analiza el contenido de los mismos.

El primero de ellos se titula «Disposiciones generales» y contiene cuatro artículos. El primer artículo titulado «Ámbito de aplicación» circunscribe su aplicación a las relaciones de trabajo en las que concurran las condiciones descritas en el artículo 1.1 del Estatuto de los Trabajadores, que se desarrollen a distancia con carácter regular. En este sentido, el concepto de regular se define como «el trabajo a distancia que se preste, en un periodo de referencia de tres meses, un mínimo del treinta por ciento de la jornada, o el porcentaje proporcional equivalente en función de la duración del contrato de trabajo».

A continuación, en el artículo segundo titulado «Definiciones» se recogen las relativas a: a) trabajo a distancia, entendido como la «forma de organización del trabajo o de realización de la actividad laboral conforme a la cual esta se presta en el domicilio de la persona trabajadora o en el lugar elegido por esta, durante toda su jornada o parte de ella, con carácter regular»; b) teletrabajo, entendido como «aquel trabajo a distancia que se lleva a cabo mediante el uso exclusivo o prevalente de medios y sistemas informáticos, telemáticos y de telecomunicación»; y finalmente, c) trabajo presencial, entendido como «aquel trabajo que se presta en el centro de trabajo o en el lugar determinado por la empresa».

Seguidamente, en el artículo tercero, titulado «Limitaciones en el trabajo a distancia» se trata de las peculiaridades de los contratos de trabajo celebrados con menores y los contratos en prácticas y para la formación y el aprendizaje, recogiendo que «solo cabrá un acuerdo de trabajo a distancia que garantice, como mínimo, un porcentaje del cincuenta por ciento de prestación de servicios presencial, sin perjuicio del desarrollo telemático, en su caso, de la formación teórica vinculada a estos últimos».

Por último, el artículo cuatro titulado «Igualdad de trato y de oportunidades y no discriminación» se aborda el hecho de que el trabajo a distancia no será motivo para establecimiento de condiciones menos favorables ya que se «tendrán los mismos derechos que hubieran ostentado si prestasen servicios en el centro de trabajo de la empresa». Además, puntualiza que «no podrán sufrir perjuicio alguno ni modificación en las condiciones pactadas, en particular en materia de tiempo de trabajo o de retribución, por las dificultades, técnicas u otras no imputables a la persona trabajadora, que eventualmente pudieran producirse». A su vez, señala la protección frente a la discriminación directa o indirecta y particularmente por razón de sexo, la obligación de tener en cuenta a las personas teletrabajadoras o trabajadoras a distancia en los planes de igualdad, las particularidades del trabajo a distancia, y especialmente del teletrabajo, «en la configuración y aplicación de medidas contra el acoso sexual, acoso por razón de sexo, acoso por causa discriminatoria y acoso laboral» y «en la elaboración de medidas para la protección de las víctimas de violencia de género». Finalmente, se cierra el capítulo al señalar que «las personas que realizan trabajo a distancia tienen los mismos derechos que las personas trabajadoras presenciales en materia de conciliación y corresponsabilidad, incluyendo el derecho de adaptación a la jornada establecido en el artículo 34.8 del Estatuto de los Trabajadores, a fin de que no interfiera el trabajo con la vida personal y familiar».

A continuación, el capítulo segundo se titula «El acuerdo de trabajo a distancia» y contiene dos secciones. En la primera sección, bajo el título «Voluntariedad del trabajo a distancia» se encuentra el artículo cinco titulado «Voluntariedad del trabajo a distancia y acuerdo de trabajo a distancia» en el que se señala que se requiere el consentimiento de ambas partes «sin que pueda ser impuesto en aplicación del artículo 41 del Estatuto de los Trabajadores, todo ello sin perjuicio del derecho al trabajo a distancia que pueda reconocer la legislación o la negociación colectiva». Igualmente, recoge que «la negativa de la persona trabajadora a trabajar a distancia, el ejercicio de la reversibilidad al trabajo presencial y las dificultades para el desarrollo adecuado de la actividad laboral a distancia la negativa (...) no serán causas justificativas de la extinción de la relación laboral ni de la modificación sustancial de las condiciones de trabajo» para finalizar añadiendo que «la decisión de trabajar a distancia desde una modalidad de trabajo presencial será reversible para la empresa y la persona trabajadora. El ejercicio de esta reversibilidad podrá ejercerse en los términos establecidos en la negociación colectiva o, en su defecto, en los fijados en el acuerdo de trabajo a distancia al que se refiere el artículo 7».

Acto seguido, en el epígrafe segundo titulado «el acuerdo de trabajo a distancia» se aborda el artículo sexto, titulado «Obligaciones formales del acuerdo de trabajo a distancia» en el que se indica la obligatoriedad de realizarse por escrito, bien «incorporado al contrato de trabajo inicial o realizarse en un momento posterior, pero en todo caso deberá formalizarse antes de que se inicie el trabajo a distancia», entregando tanto a la representación legal de las personas trabajadoras como a la oficina pública de empleo una copia de todos los acuerdos de trabajo a distancia que se realicen y de sus actualizaciones.