Facultad de Jurisprudencia, Ciencias Políticas y Sociales Revista cap jurídica central
universidad central del ecuador
9(16), enero - junio 2025, pp. 6-20
revista cap jurídica central
Los principios del Derecho de la inteligencia artificial. Una propuesta de hard law
Saulo Jaramillo Romero+
Resumen Mediante el uso y aplicación de inteligencia artificial (IA) se producen impactos negativos en las personas como vulneración de derechos humanos y fundamentales. En este trabajo, se proponen los principios del Derecho de la IA, como una alternativa de regulación, vinculante y obligatoria. En este sentido, se realiza un estudio teórico-doctrinario, desde su origen, su paso por la ética, los documentos de soft law y la necesidad de su positivización. Para ello, mediante el método cualitativo y la técnica de análisis documental, se pudo analizar los estudios doctrinarios e institucionales, mediante los cuales, se han venido elaborando y consolidando. El estado del arte permite verificar que existe un acuerdo doctrinal y legal en seis principios del Derecho de la IA: propersona, transparencia, beneficencia, no maleficencia, equidad y responsabilidad. No obstante, por encontrarse como lineamientos éticos e indicativos, son insuficientes para el desarrollo y uso de una IA centrada en la humanidad y la transparencia algorítmica.
Como una propuesta de hard law, observando la reconfiguración del pacto social y el reconocimiento de nuevos derechos como el derecho humano a internet, los neuroderechos (privacidad e intimidad mental) y el derecho al control humano, se fundamenta la necesidad de su positivización.
Palabras clave principios, inteligencia artificial, propersona, transparencia, beneficencia Abstract The use and application of artificial intelligence (AI) produces negative impacts on individuals, such as the violation of human and fundamental rights. In this paper, the principles of AI Law are proposed as an alternative for binding and obligatory regulation. In this sense, a theoretical-doctrinal study is carried out, from its origin, its passage through ethics, soft law documents, and the need for its positivization. To this end, using the qualitative method and the document analysis technique, doctrinal and institutional studies were analyzed, through which they have been developed and consolidated. The state of the art verifies that there is a doctrinal and legal agreement on six principles of AI Law: properson, transparency, beneficence, non-maleficence, equity, and responsibility. However, because they are ethical and indicative guidelines, they are insufficient for the development and use of human-centered AI and algorithmic transparency. As a hard law proposal, observing the reconfiguration of the social pact and the recognition of new rights such as the human right to the internet, neuro-rights (privacy and mental intimacy), and the right to human control, the need for its positivization is substantiated.
Keywords principles, artificial intelligence, properson, transparency, beneficence
* Abogado, master en Derecho penal y master en Derecho de la economía digital, investigador predoctoral en Universidad de Sa-lamanca. Líneas de investigación: corrupción, lavado de activos, Derecho de la inteligencia artificial, ciber delitos y delitos co-metidos con sistemas de IA. https://orcid.org/0009-0008-9250-6725.
DOI: https://doi.org/10.29166/cap.v9i16.8497
pISSN 2550-6595
CC BY-NC 4.0 —Licencia Creative Commons Reconocimiento-NoComercial 4.0 Internacional eISSN 2600-6014
© 2025 Universidad Central del Ecuador
revistacap_juridica2.1@hotmail.com
“El desarrollo y el uso de la IA tienen el potencial de tener
un impacto tanto positivo como negativo en la sociedad,
para aliviar o para amplificar las desigualdades existentes,
para curar viejos problemas o para causar otros nuevos.”
Floridi y Cowls
1. Introducción. Impactos positivos y negativos de la
inteligencia artificial y la necesidad de su regulación
De forma constante escuchamos que la inteligencia artificial (IA) llegó para quedarse y, efectivamente, sobre esta tecnología disruptiva, existe un punto de no retorno. En este sentido, la IA como el desarrollo tecnológico más importante en la actualidad, trae consigo fundamentales aportes para la sociedad, para la economía, la educación y la administración pública. Mejorará los servicios de salud, la agricultura, la seguridad y aportará cambios hasta impredecibles.1
No obstante, también existe un temor2 porque genera peligros y riesgos que ya han vulnerado los derechos humanos (DDHH) y fundamentales como el de inocencia, igualdad, privacidad, protección de datos y transparencia. Su opacidad hace que: “los sistemas algorítmicos sean difíciles de auditar y responsabilizar”.3 Los impactos negativos de la IA son tan complejos que pueden reducir el control humano, devaluar sus habili-dades, erosionar la autodeterminación e incluso, eliminar la responsabilidad humana.4
Nos encontramos frente a un fenómeno similar a cuando llegó su rama general que es la informática y su parte negativa: la cibercriminalidad.5
No debe entenderse esta observación como una demonización o actitud negativa ante esta tecnología, sino como una mirada crítica y preventiva ante sus consecuencias negativas. Pues, esta reflexión no es baladí, ya que se encuentra sustentada en informes oficiales como la Evaluación de impacto de la Comisión Europea, donde se han identificado problemas como riesgos para la seguridad y protección y, riesgos de violación de los derechos fundamentales, debido a características específicas de la IA como opacidad, complejidad, comportamiento autónomo y calidad de datos.6
En este contexto, para evaluar y mitigar esos riesgos, por ejemplo: un informe realizado por Trilateral Research ha identificado como una tendencia a los principios 1 Comisión Europea, Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza (Bruselas: Comisión Europea, 2020), 1.
2 Gialuca Misuraca y Tanya Álvarez, Algoritmos de gobierno: peligros y poderes de la IA en el sector público (Barcelona: Sociedad del futuro digital, 2021), 4.
3 Moisés Barrio Andrés “Objeto, ámbito de aplicación y sentido del reglamento europeo de inteligencia artificial”, en El Reglamento Europeo de Inteligencia Artificial, dir. Moisés Barrio Andrés (Valencia: Tirant lo Blanch, 2024), 21-48.
4 Luciano Floridi et al., capAI, un procedimiento para realizar evaluación de la conformidad de los sistemas de IA en consonancia con la Ley de Inteligencia Artificial de la UE (Reino Unido: Universidad de Oxford, 2022), 1. https://papers.ssrn.com/sol3/
papers.cfm?abstract_id=4064091.
5 Mirentxu Corcoy Bidasolo, “Problemática de la persecución penal de los denominados delitos informáticos: particular referencia a la participación criminal y al ámbito espacio temporal de comisión de los hechos”, Eguzkilore, No. 21 (diciembre, 2007): 7–32, https://www.ehu.eus/es/web/ivac/cuaderno-eguzkilore-21.
6 Además de lo indicado, el informe sobre el segundo problema (violación de derechos fundamentales) señala que este implica atentar contra la dignidad humana, reducir la protección de la privacidad y violar el derecho a la protección de datos, discriminación, violación del debido proceso, etc. Comisión Europea, Commission Staff Working Document Impact Assessment (Bruselas: Comisión Europea 2021), 13, 17, 19 y 28.
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
7
Los principios del Derecho de la inteligencia artificial. Una propuesta de hard law.
de la IA.7 Y, por esta razón se observa también que, en el desarrollo y uso de la IA es imperativa su regulación y positivización. De esta forma ha respondido la Unión Europea (UE) como comunidad internacional pionera en este tema. En tal virtud, aquí nos ocupamos de la alternativa basada en principios, por considerar que es la más importante debido a su jerarquía normativa. Conocido es que los principios jurídicos son la base de cualquier ordenamiento jurídico y de los cuerpos normativos de carácter internacional y nacional. De ellos, parte la estructura de la positivización de nuestros derechos o de una regulación para que no sean vulnerados.
2. Los principios del Derecho de la IA
Antes de analizar los principios en mención es necesario sentar la directriz que determina en qué significado estamos hablando sobre estos. En este sentido, aquí se debe entender que nos encontramos ante principios jurídicos. En esta línea, enseña Alexi: “Son normas que ordenan que algo sea realizado en la mayor medida posible, dentro de las posibilidades jurídicas y reales existentes (…) son mandatos de optimización”.8 Y
agregamos también, que de acuerdo a Aragón se deben entender como un concepto fundamental sobre el que se apoya un razonamiento que se han incorporado al derecho positivo, con un contenido jurídico relativamente para la comunidad jurídica.9
En el marco de este trabajo, los principios deben ser entendidos como normas que orientan el uso y desarrollo de la IA, como una garantía frente a los impactos negativos descritos ut supra. Ya no deben ser vistos como directrices éticas o indicativas, pues lo que se busca es que adquieran el carácter de obligatorios.
2.1. El origen
Por ser el Derecho de IA y sus principios, una disciplina en formación, como antecedente para el lector/investigador, es importante mencionar que estos se constituyen en la bioética10 y en derechos fundamentales11 como dignidad, libertad e igualdad. Con-tinúan su evolución en la ética de la IA, a normas de soft law y en mínima medida, a normas de hard law.
En este contexto, teniendo como base la ética de la IA, en 2018 la Comisión Europea conformó un grupo de expertos de alto nivel, mediante el cual se emitió las directrices para una IA fiable. Este grupo independiente cimentó su propuesta en los derechos 7 Gabriella Ezeani, Ansgar Koene, Richa Kumar, Nicole Santiago y David Wright, Una encuesta sobre el riesgo de la inteligencia artificial evaluación metodologías. La situación mundial y las principalesprácticas identificadas (Trilateral Research, 2021), 6-7.
8 Robert Alexy, Teoría de los derechos fundamentales (Madrid: Centro de estudios constitucionales, 1993), 86.
9 Aragón Reyes, citado en Iván Vila Casado, Fundamentos del derecho constitucional contemporáneo (Bogotá: Universidad Libre, 2021), 275-6.
10 Luciano Floridi y Josh Cowls, “A Unified Framework of Five Principles for AI in Society”, Harvard Data Science Review Issue 1.1 (2019). doi:10.1162/99608f92.8cd550d1, 1-14.
11 Comisión Europea, Grupo independiente de expertos de alto nivel sobre inteligencia artificial, Directrices Éticas para una IA fiable (Bruselas: Comisión Europea, 2018), 11-4. A más de los anotados, el documento describe también el respeto a la demo-cracia, la justicia y el Estado de Derecho y los derechos ciudadanos.
8
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
fundamentales y dictó cuatro principios.12 En la misma línea, un estudio realizado por Floridi y Cowls identifica 47 principios superpuestos, coherentes y convergentes.13 Mismos que debido a su similitud fueren agrupados en cinco: propersona, transparencia, beneficencia, no maleficencia y equidad. Asimismo, Nuria Oliver explicando que la IA nos ayuda a tomar decisiones con impacto individual o colectivo que afectan a porcen-tajes altos de personas, enseña que se han propuesto un conjunto de principios éticos para el establecimiento de modelos globales y regulaciones para conseguir que la IA tenga impacto positivo.14
Posterior a estos postulados, se emiten también documentos soft law, de los cuales, anotamos tres de los más conocidos y actuales. De esta forma, la Organización para la Cooperación y el Desarrollo Económico, en 2019, con actualización de 2024, recomen-dó cinco principios para la gestión responsable de una IA fiable.15 En línea similar, la Carta Iberoamericana de IA en la Administración Pública, cuyo objetivo principal es promover un marco compartido de desarrollo de la IA, establece once principios generales para la IA, misma que se debe sustentar en el respeto de las singularidades de cada país en términos políticos, administrativos y legales.16
No obstante, especial atención merece el Reglamento de IA de la Unión Europea, cuyo artículo uno determina que el objetivo de este, es promover la adopción de una IA centrada en el ser humano y fiable.17 Este cuerpo normativo, en el considerando 27 hace referencia a los principios éticos del grupo expertos de la Comisión Europea y establece que su aplicación: “debe traducirse, cuando sea posible, en el diseño y el uso de modelos de IA”.18 Es importante señalar, que si bien estos principios no son vinculantes, en los debates del Parlamento Europeo, con base en la Resolución No. 2020/2012 (INL) de 2020,19 mediante la cual se fija el marco de los aspectos éticos de IA, se consideró incluirlos en el articulado20 con carácter vinculante.
2.2. Configuración en el derecho positivo
El Convenio Marco del Consejo de Europa sobre IA y Derechos Humanos es el único cuerpo normativo occidental de carácter vinculante que desarrolla los principios de la IA. Concuerdo con Barrio Andrés, indicando que aquí se abandona el: “Enfoque ético anterior”21 y se positivizan las anheladas metanormas para una IA humana. En su artículo seis, el Convenio Marco dispone que los Estados parte deben implementar los principios comunes y generales respecto de sistemas de IA. En este sentido, desde el artículo siete hasta el trece determina siete principios: dignidad humana y autonomía, 12 Ibid.
13 Floridi y Cowls, “A Unified Framework of Five Principles for AI in Society”, 1-14.
14 Nuria Oliver, Inteligencia Artificial: Ficción, Realidad y ...Sueños (Madrid: Real Academia de Ingeniería, 2018), 60.
15 OCDE, Recommendation of the Council on Artificial Intelligence, 2024. 5-9.
16 Centro Latinoamericano de Administración para el Desarrollo, Carta Iberoamericana de InteligenciaArtificial en la Administración Pública, s/f. Capítulos 1.1.3. y 3.
17 UE Parlamento, Reglamento de Inteligencia Artificial, 12 de julio de 2024, (UE) 2024/1689, art. 1.
18 Ibid., considerando 27.
19 PE, Resolución del Parlamento Europeo, Aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas, 20 de octubre de 2020. En esta resolución, en el artículo 5 se desarrollan también los principios éticos de la IA, con base en ella se propuso incluirlos en el articulado obligatorio, pero la iniciativa no prosperó.
20 Ibán García del Blanco, “Reflexiones en torno a Ley de IA de la Unión Europea”, video de YouTube, ponencia presentada en II semana de la IA Universidad de Sevilla, 2024, 06:15, https://www.youtube.com/watch?v=b7kEwITL58g&list.
21 Moisés Barrio Andrés, Manual de Derecho Digital 3.ª ed. (Valencia: Tirant lo Blanch, 2024), 101.
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
9
Los principios del Derecho de la inteligencia artificial. Una propuesta de hard law.
transparencia y supervisión, rendición de cuentas y responsabilidad, igualdad y no discriminación, privacidad y protección de datos, confiabilidad e innovación segura.22
Es importante agregar que la importancia que tiene para los países no miembros de la Unión Europea el Convenio Marco, a más de ser vinculante, es que pueden adherirse al mismo, previa invitación del Comité de Ministros del Consejo de Europa, por así disponerlo el artículo 31, numeral 1.23
Como decía anteriormente, en Occidente esta es la única norma vinculante. La mayoría de países de Latinoamérica en la actualidad preparan proyectos de ley con los principios descritos anteriormente, que esperamos sean aprobados en este sentido. En Ecuador en 2024 se presentaron tres proyectos de ley con diferentes enfoques, de los cuales solo dos contemplaban principios. En 2025 han sido unificados en uno solo en la Comisión de Educación del legislativo.
3. Descripción y conceptualización de los principios del
Derecho de la IA
De los análisis realizados anteriormente, se recogen seis principios considerados los más relevantes y convergentes en tres segmentos (ética, soft y hard law), mismos que, deben ser cumplidos durante todo el ciclo de vida de los sistemas de IA. A pesar de que Floridi y Cowls han identificado hasta 47 principios ( supra numeral 2.1.), como han indicado los mismos autores, estos se encuentran contrapuestos entre sí; pues además de ello, son dominantes tanto en la doctrina como en los instrumentos soft law. En este sentido, se ha considerado tomarlos en conjunto como los principios del Derecho de la IA. Y, por esta misma razón, mediante este trabajo se ha decidido darles esta denominación, y al mismo tiempo que representan la base positiva para el desarrollo del Derecho de la IA, que como sabemos, apenas inicia.
3.1. Propersona (IA antropocéntrica, autonomía humana)
Considero que este principio está compuesto por dos subprincipios. En todo caso, hace referencia a que: ( i) la IA debe ser desarrollada para los humanos, su dignidad y la su-pervivencia de nuestra especie y que ( ii) las últimas decisiones de sus sistemas, siempre debe tomarlas una persona.
3.1.1. Propersona en sentido amplio (IA centrada en el humano-humanidad) La IA centrada en la persona y la humanidad, se origina en el fundamento esencial de estas: los derechos humanos. En este sentido, busca el respeto de la dignidad humana, su autonomía y autodeterminación.24 El grupo de expertos de la Unión Europea (UE) determina que: “Los sistemas de IA no deberían subordinar, coaccionar, engañar, 22 CE, Comité de Ministros, Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho, 17 de mayo de 2024, arts. 6 al 13.
23 Ibid., art. 31.
24 Parlamento Europeo, “Resolución del Parlamento Europeo, de 20 de octubre de 2020, aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas”, 7-8.
10
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
manipular, condicionar o dirigir a los seres humanos de manera injustificada”.25 Pero esto no es suficiente para Tasioulas, autor que criticando la ética utilitarista, expone que una IA humanista debe estar integrada por tres elementos: pluralidad, procedimientos y participación.26 Es decir, toda la actividad de IA debe obligatoriamente girar en torno a la persona, y esta debe prevalecer sobre cualquier otro fin.
3.1.2. Autonomía humana (control, supervisión y reserva de humanidad) Enseña Oliver que la autonomía es un valor central mediante el cual cada persona debe tener la capacidad de decidir sus pensamientos y acciones.27 Por lo cual: “afirmar el principio de autonomía (…) significa lograr un equilibrio entre el poder de decisión que retenemos para nosotros mismos y el que delegamos a agentes artificiales”.28 Ya que, analizando los límites de la IA en ejercicio de decisiones discrecionales administrativas, Ponce Solé va más allá y denomina a este sub principio como reserva de humanidad,29 considerándolo como potestad única, con reserva legal a favor de los humanos.
En este sentido, debido a que ciertos sistemas de IA adquieren capacidad de adaptación y, por ende, autonomía, las personas no podemos correr el riesgo de ceder o delegar nuestras decisiones. Somos las personas las que debemos decidir. A esta obli-gatoriedad, nos referimos con autonomía humana en la IA.
3.2. Transparencia (explicabilidad, trazabilidad, auditabilidad) El principio de transparencia es la capacidad de comprender los sistemas de IA, estos son transparentes, si una persona puede observarlos y comprenderlos fácilmente.30 Según Vestri: “un sistema es transparente cuando es conocible y descifrable”.31 Esto es una necesidad en su uso y funcionamiento. En este sentido, si las personas se ven afec-tadas por sistemas de IA, pueden cuestionar su decisión o resultado y oponerse.32
Además de lo anterior, debemos tener presente que este principio comprende la transparencia algorítmica en estricto sensu. A través de él, ejerciendo una acción legal, se puede acceder a los algoritmos y al código fuente del sistema de IA. Su importancia para el Derecho radica en que mediante las decisiones que se toman con algoritmos, se otorgan servicios públicos, beneficios sociales, medidas de protección o alternativas a la prisión; es decir, se sabe cómo se han tomado esas decisiones para reconocer o negar 25 Comisión Europea, Directrices Éticas para una IA fiable, 15.
26 Pluralidad de valores como elementos del bienestar humano en términos y componentes básicos de la moralidad; procedimientos mediante los cuales se ha podido obtener los impactos positivos de IA; y, participación en la toma de decisiones con respecto de la IA. John Tasioulas, “Artificial Intelligence, Humanistic Ethics” Daedalus, Spring 2022 151, No. 2 (2022): 232-43, https://www.jstor.org/stable/10.2307/48662038.
27 Nuria Oliver, “Governance in the Era of Data-driven Decision-making Algorithms”, En Women Shaping Global Economic Governance, (London: CEPR Press, 2019): 171 80, https://nuriaoliver.com/papers/Oliver_FATEN.pdf.
28 Floridi y Cowls, “A Unified Framework of Five Principles for AI in Society”, 1.1.
29 Juli Ponce Solé, “Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico”, Iustel, No. 50 (enero, 2019): s/n, https://laadministracionaldia.inap.es/noticia.asp?id=1509505.
30 Oliver, “Governance in the Era of Data-driven Decision-making Algorithms”, 171 80.
31 Gabriele Vestri, “La inteligencia artificial ante el desafío de la transparencia algorítmica. Una aproximación desde la perspectiva jurídico-administrativa”, Revista Aragonesa de Administración Pública, No. 56 (2021): 368-398, https://dialnet.unirioja.
es/servlet/articulo?codigo=7971161.
32 Silvia Barona Vilar, Algoritmización del Derecho y de la Justicia. De la Inteligencia Artificial a la Smart Justice (Valencia: Tirant lo Blanch, 2021), 131.
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
11
Los principios del Derecho de la inteligencia artificial. Una propuesta de hard law.
derechos. Se hace énfasis en esto, debido a que ya existen casos como Loomis33 en los que incluso se ha llegado a determinar el quantum de la pena, sin que el sentenciado haya podido tener acceso a las pruebas mediante las cuales se llegó a esta decisión.
En este contexto, la aplicación correcta de la transparencia algorítmica debe asegurar los principios de cognoscibilidad, comprensibilidad y visibilidad, entendido este último, como la capacidad de que los elementos implicados en decisiones algorítmicas sean conocibles, comprensibles, explicables y verificables.34
3.3. Beneficencia (bienestar social y ambiental, sostenibilidad) Este principio quiere decir que la IA debe aplicarse para el servicio de las personas y el planeta, debe ser inclusiva, sostenible y promover el bienestar.35 En palabras de Floridi y Cowls: “la prominencia de la beneficencia subraya firmemente la importancia central de promover el bienestar de las personas y el planeta”.36 Por esta razón, cada vez es más importante que el desarrollo de la IA garantice las condiciones básicas para la vida y para preservar el medio ambiente para generaciones futuras.37
Obsérvese que la beneficencia incluye también elementos como inclusión, sostenibilidad y medio ambiente. Es decir, este principio se encuentra íntimamente vinculado con el mandato propersona, por cuanto busca una IA al servicio de todas las personas y su entorno, y busca también proteger la naturaleza de la contaminación ambiental que genera esta.
3.4. No maleficencia (solidez, seguridad, privacidad, prevención del daño)
La no maleficencia hace referencia a que la IA no debe causar daño previsible o intencional, mismo que se interpreta como discriminación, violación de la privacidad o daño corporal.38 Según Valdés: “el sentido normativo del principio de no maleficencia es exclusivamente negativo, ya que no se trata de una simple abstención de dañar sino de no causar daño y de no imponer siquiera el riesgo de provocarlo”.39 En estricto sentido, el principio de no maleficencia garantiza que los sistemas de IA no deben provocar nin-gún tipo de daño en su uso y aplicación. En tal virtud, deben ser sólidos, seguros, ro-bustos y proteger la privacidad y los datos personales.
Es importante tener presente que los sistemas de IA se alimentan de datos personales masivos, por lo cual, su acceso y uso debe prever y asegurar que los mismos no sean mal utilizados o encontrarse vulnerables ante posibles ataques externos. Por esta razón, no maleficencia es prohibición y prevención del daño.
33 Lucía Martínez Garay, “Peligrosidad, algoritmos y due process: el caso State v Loomis”, UNED. Revista de Derecho Penal y Criminología, No. 20 (2018): 485-502, https://hdl.handle.net/10550/72730.
34 Gabriele Vestri, “Transparencia y justicia algorítmica en el sector público: un análisis entre el factor humano y el aprendizaje profundo”, en Inteligencia artificial y administraciones públicas: una triple visión en clave comparada, dir. Agustí Cerrillo I Martínez et al., (Madrid: Iustel, 2024), 253-63.
35 Barona Vilar, “Algoritmización del Derecho y de la Justicia. De la Inteligencia Artificial a la Smart Justice”, 130.
36 Floridi y Cowls, “A Unified Framework of Five Principles for AI in Society”, 1.1.
37 Oliver, “Inteligencia Artificial: Ficción, Realidad y ...Sueños”, 64.
38 Ana Jobin, Marcelo Lenca, y Effy Vayena, “El panorama global de las directrices éticas de la IA” Nat Mach Intell 1 (2019): 389–99, https://doi.org/10.1038/s42256-019-0088-2.
39 Erick Valdés, Bioderecho. Epistemologías y aplicaciones en tiempos de pandemia y riesgo existencial (Valencia: Tirant lo Blanch, 2021), 55.
12
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
3.5. Equidad (justicia, diversidad y no discriminación)
Equidad en IA significa que su desarrollo, despliegue y uso deben ser igualitarios. Tiene dos dimensiones: sustantiva en el sentido de garantizar que las personas no sufran sesgos, discriminación, manipulación y limitaciones y, procedimental, relacionadas con la transparencia, como facultad de oponerse a las decisiones tomadas con IA.40 En palabras de Oliver, estos deberían ser los elementos centrales en el desarrollo de los sistemas de IA.41 Y esto supone: “adoptar un enfoque inclusivo para garantizar que los beneficios de las tecnologías de la IA estén disponibles y sean accesibles para todos”.42
Es importante anotar que entre los impactos negativos de la IA también existe sesgo y discriminación algorítmica como uno de los problemas centrales que vienen enfren-tando sus sistemas. Por lo tanto, mediante este principio se busca que esta sea justa y equitativa sin distinción.
3.6. Responsabilidad (rendición de cuentas)
Este principio debe ser entendido como la obligación de responsabilizarse y responder legalmente por los daños causados por la IA, pues a mi entender, estos deben ser atri-buidos exclusivamente a los humanos.
La autora Jobin y otros, analizan que la responsabilidad y rendición de cuentas rara vez se definen. Sin embargo, aclarar la responsabilidad y la obligación legal es posible por adelantado, por ejemplo: en los contratos. Agregan, además, que entre los actores responsables de las acciones de IA se pueden encontrar desarrolladores, diseñadores, instituciones o industria.43 De lo cual, debo agregar, conforme lo expresé anteriormente, que la responsabilidad siempre debe ser humana, más aún, cuando se encuentre en el análisis la responsabilidad penal. Es enfática Barona Vilar en señalar que: “organizacio-nes e individuos que desarrollen, implementen u operen IA deben asumir su responsabilidad sobre el funcionamiento de dichos sistemas”.44
Siendo importante añadir, que el riesgo y peligro de los daños, se ahonda en los sistemas de IA desarrollados por algoritmos no determinísticos,45 debido a que por su complejidad e impredecibilidad no es posible interpretarlos o descifrarlos, a la vez que adquieren total autonomía en su accionar. Por lo cual, un posible problema radicará en la claridad para atribuir responsabilidades, en todo el Derecho disciplinario sancionador.
4. La jurisprudencia
Sobre los principios antes descritos es importante mencionar que, a pesar de ser re-cientes, ya se han pronunciado y han sido reconocidos en la jurisprudencia nacional e internacional. Tanto en ámbitos de aplicación como la administración de justicia, de decisiones automatizadas y de transparencia algorítmica.
40 Comisión Europea, Directrices Éticas para una IA fiable, 15.
41 Oliver, “Governance in the Era of Data-driven Decision-making Algorithms”, 171 80.
42 UNESCO, Recomendación sobre la ética de la inteligencia artificial (París: UNESCO, 2022), 20.
43 Jobin, Lenca y Vayena, “El panorama global de las directrices éticas de la IA”, 389–99.
44 Barona Vilar, “Algoritmización del Derecho y de la Justicia. De la Inteligencia Artificial a la Smart Justice”, 132.
45 Raquel Borges Blázquez, “El sesgo de la máquina en la toma de decisiones en el proceso penal”, IUS ET SCIENTIA 6, No.
2 (2020): 54-71, doi: 10.12795/IETSCIENTIA.2020.i02.05.
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
13
Los principios del Derecho de la inteligencia artificial. Una propuesta de hard law.
4.1. Corte Constitucional de Colombia (principios de la IA)
Este organismo de justicia constitucional mediante sentencia T-323 de 02 de agosto de 2024, bajo el antecedente de como un administrador de justicia utilizaba el conocido sistema de IA generativa ChatGPT en la elaboración de sus sentencias ha exhor-tado a los funcionarios judiciales de aquel país a aplicar y considerar los principios de: transparencia, responsabilidad, privacidad, no sustitución de la racionalidad humana, seriedad y verificación, prevención de riesgos, igualdad y equidad, control humano, regulación ética, adecuación a buenas prácticas y estándares colectivos, seguimiento con-tinuo y adaptación e idoneidad.46 Si bien el tribunal, los reconoce como directrices, es claro que lo que está desarrollando son los principios del Derecho de la IA.
4.2. Tribunal Europeo de Derechos Humanos y Corte
Constitucional de Colombia (transparencia algorítmica)
Desde una óptica del derecho a la protección de datos personales, este 27 de febrero de 2025, el máximo organismo de justicia de la Unión Europea en el caso Dun & Brads-treet Austria ha desarrollado el principio de transparencia indicando que cuando una persona sea objeto de una decisión totalmente automatizada, esta tiene derecho a obtener una explicación del procedimiento, misma que debe facilitarse mediante información pertinente, de forma concisa, inteligible y transparente.47 Y si bien el asunto no trata directamente sobre sistemas de IA, el fondo del mismo discute la transparencia de las decisiones automatizadas, es decir, tomadas por máquinas, que si son o podrían ser máquinas de IA, obligatoriamente, también deben cumplir con el mandato.
La Corte Constitucional de Colombia con sentencia T-067 de 26 de febrero de 2025, en lo principal define la transparencia algorítmica como “la disponibilidad de información sobre sistemas de algoritmos que permite conocer su operación y valor su rendimiento”.48 Asimismo, ha desarrollado el principio de transparencia indicando que es una garantía fundamental para asegurar un correcto empleo de los datos personales y: “evitar que el uso de sistemas algorítmicos para la toma de decisiones por parte de entidades públicas derive en decisiones arbitrarias o discriminatorias”.49
5. El deber de positivizar los principios de la IA como
garantía para la humanidad
Luego del análisis realizado, se considera necesario que, de los seis principios estudiados, tres de ellos (propersona, transparencia y beneficencia) deben ser positivizados en los cuerpos normativos internacionales y nacionales, de acuerdo a como se describe enseguida.
46 Colombia Corte Constitucional, “Sentencia T-323, 02 de agosto de 2024, punto resolutivo cuarto”, https://www.corteconstitucional.gov.co/relatoria/2024/T-323-24.htm.
47 Tribunal Europeo de Derechos Humanos, “Sentencia asunto C 203/22, 27 de febrero de 2025, párrafos 57 y 58”, https://curia.europa.eu/juris/document/document.jsf?text=&docid=295841&pageIndex=0&doclang=EN&mode=req&dir=&occ=first&part=1&cid=15673976.
48 Corte Constitucional de Colombia, Corte Constitucional de Colombia. Sentencia T-067 de 2025, 2025 párr. 65.
49 Ibid., párr. 65.
14
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
5.1. Fundamentación, legitimidad y relevancia práctica en el
Derecho
En este sentido, sí los sistemas de IA se diseñaran y desarrollaran observando las directrices éticas e indicativas ( soft law) y, respetaran los principios y valores mínimos de convivencia, no sería necesario acudir a la coerción jurídica. Analizando el progreso tecnológico para un mundo mejor y su consecuente peligro para la humanidad, López Oneto observa que las prácticas éticas son insuficientes para regular las relaciones humanas.50 Por ello, Tasioulas hace énfasis en que la ética en la IA debería abarcar: “la deliberación sobre cualquier forma de regulación, desde la autorregulación personal hasta la regulación legal”.51 Es decir, si queremos considerar la ética en la regulación de la IA, debe ser conscientemente respetada, pero la realidad práctica no lo demuestra. Se verifica todo lo contrario conforme al numeral 1 de este trabajo. En tal virtud, la ética y los documentos soft law son insuficientes para regular la IA.
Conocido es que el Derecho es dialéctico y que debe estar en constante evolución para adaptarse a las necesidades de la sociedad. Por su parte, la IA al no ser una tecnología más, sino una tecnología totalmente diferente y revolucionaria en comparación a sus antecesoras, está transformando todas las relaciones económicas, jurídicas, laborales, etc.; y, removiendo las bases sociales que hasta no más de cinco años se mantenían es-táticas. En el ámbito jurídico, la IA está poniendo en urgentes transformaciones tanto a Estados, diseñadores y usuarios. Pensemos por ejemplo un proceso judicial o administrativo en el que se permita tomar una decisión totalmente autónoma a una máquina y no se considere el criterio humano (principio pro persona) o que la misma no sea entendible y descifrable (principio de transparencia); consideremos, qué implicaciones ya están teniendo estas acciones en el debido proceso y en los derechos fundamentales.
Pero tomando el ejemplo de forma más extrema, real y no imaginaria, consideremos por ejemplo un proceso administrativo en el que un sistema de IA le dice al humano que debe adoptar un acto administrativo de una u otra forma, sin tener en cuenta el criterio de la persona y esta a su vez, se sienta sugestionada o presionada a tomar esa decisión, por considerar que la máquina, supuestamente, no se equivoca y termina concediendo un contrato público por varios millones de dólares erróneamente. Esto es lo mismo que puede pasar en el ámbito judicial, donde se puede sugestionar a un administrador de justicia a tomar una decisión porque también, supuestamente, los sistemas de IA son imparciales. Sin embargo, como quedó indicado ( Supra numeral 1), la IA tiene impactos negativos, resuelve con sesgos y discriminación. Por lo que su supuesta imparcialidad y relevancia es solo producto del marketing.
Lo descrito, evidentemente, distorsiona el fin para el cual fue pensada la IA, pues se dice que llegó a mejorar nuestras vidas, a evitar contaminación ambiental, pero basta con pensar en la contaminación que genera un data center. Esto se contrapone con una IA al servicio de las personas y el planeta, sostenible e inclusiva (principio de beneficencia).
50 Marcos López Oneto, Fundamentos para un Derecho de la Inteligencia Artificial ¿Queremos seguir siendo humanos? (Valencia: Tirant lo Blanch, 2020), 153.
51 Tasioulas, “Artificial Intelligence, Humanistic Ethics”, 232-43.
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
15
Los principios del Derecho de la inteligencia artificial. Una propuesta de hard law.
5.2. Hechos y conflictos nuevos, reconfiguración de las
categorías jurídicas
Antes de la irrupción de la IA en un mundo acostumbrado a que las decisiones sean tomadas exclusivamente por humanos, el Derecho como normas de regulación de la conducta humana ha estado casi a la par controlando, regulando y coaccionando. Sin embargo, debido a la velocidad con la que la IA se desarrolla, para el legislador es im-posible seguir su ritmo y direccionarla. Bajo este fenómeno, quien escribe, ya observaba hace unos meses que se ha producido una reconfiguración del pacto social que propuso Rousseau hace casi 300 años porque la IA trae consigo una verdadera revolución de la sociedad y remece las instituciones jurídicas de forma considerable y preocupante.
En la misma línea, debido a la rápida expansión de las neurotecnologías52 que traen consigo implicaciones para la privacidad y los datos neuronales. Yuste y otros autores, observan que hay que anticiparse a las lagunas generadas por éstas, en la protección de los DDHH y neurológicos.53 Asimismo, acertadamente observa Navas, que, debido a la tecnología algorítmica de la IA, se produce también una reconfiguración de las categorías jurídicas y de la sociedad en general.54
Estas observaciones tampoco son banales, las debemos tener presentes en primera línea los profesionales jurídicos, pues desde la irrupción de la IA en los ámbitos jurídicos, el mundo actual no es, ni será el mismo. Podría decirse que esto se ha presenta-do siempre, por ejemplo: en las ciencias penales, donde desaparecen unas conductas (adulterio) y aparecen otras (ciberdelitos). Pero, la velocidad de desarrollo de IA es un fenómeno diferente.
5.3. Los nuevos derechos
Debido a los problemas descritos en el apartado anterior, desde los derechos de cuarta y/o quinta generación, se busca el reconocimiento y positivización de nuevos derechos originados en la era digital como el derecho humano a internet, los neuroderechos y el derecho al control de la IA.
En este sentido, por ejemplo, Mathiesen defiende el derecho humano de acceso a internet como un deber positivo del Estado y como un derecho concatenado con la comunicación, libertad de prensa y reunión.55 La ONU ha reconocido este derecho en sus resoluciones No. A/HRC/38/L.10 de 2018 y A/HRC/RES/47/16 de 2021.
Citando nuevamente a Yuste y su preocupación por las neurotecnologías, este grupo de expertos ha considerado proteger la privacidad e intimidad mental, mediante los neuroderechos, abogando por la aplicación de normas de derechos humanos a la neurotecnología.56 Esta iniciativa ha sido reproducida por organismos y comunidad 52 Jared Genser, Stephen Damianos y Rafael Yuste, Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies (Neurorights Foundation, 2024), 6 y 10. https://www.perseus-strategies.com/wp-content/uploads/2024/04/FINAL_Consumer_Neurotechnology_Report_Neurorights_Foundation_April-1.pdf.
53 Jared Genser, Stephen Damianos y Rafael Yuste, International Human Rights Protection Gaps in the Age of Neurotechnology (Neurorights Foundation, 2022), 7-14. https://static1.squarespace.com/static/60e5c0c4c4f37276f4d458cf/t/6275130256dd5e2e11d4bd1b/.
54 Susana Navas Navarro, “Derecho e inteligencia artificial desde el diseño. Aproximaciones”, en Inteligencia Artificial, Tecnología Derecho, dir. Susana Navas Navarro (Valencia: Tirant lo Blanch, 2017), 23-72.
55 Kay Mathiesen, “The human right to internet access: a philosophical defense” International Review of Information Ethics, Vol.
18 (2012): 9-21, doi:10.29173/irie299.
56 Jared Genser, Stephen Damianos y Rafael Yuste, Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies (Neurorights Foundation, 2024): 14-5. Existe un grupo de cinco neuroderechos: privacidad mental, 16
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
internacional y se encuentra positivizada en la Constitución chilena y en una sentencia hito de su Corte Suprema.57
Finalmente, configurando el sub principio de autonomía humana como un derecho, Sánchez Vásquez analiza que, debido a la amenaza y vulneración de bienes y derechos a consecuencia de la IA, se justifica y reconoce un nuevo derecho al control humano, como una directriz general internacional y de orden público, para proteger y tutelar los derechos implicados en los escenarios de IA.58
Bajo este paraguas de nuevos hechos, conflictos, reconfiguración y nuevos derechos, se fundamenta y hace necesaria la positivización de tres de los más importantes principios del Derecho de la IA con el rango de principios generales y universales en los instrumentos jurídicos internacionales y nacionales. Como se ha venido sosteniendo, ya no como directrices éticas o indicativas, sino como normas vinculantes con consecuencias coercitivas que contengan el desarrollo y uso arbitrario de IA en contra de la humanidad. Será esta la única forma de tener diques, contrapesos y garantías, que regulen sus impactos negativos.
6. Argumentos adicionales y conclusiones
La historia jurídica nos enseña que las contenciones descritas arriba, se han generado en torno a los DDHH y la dignidad de las personas. Tal y como se produjo en la in-quisición para regular la arbitrariedad con el principio de legalidad y favorabilidad en el ámbito penal y que hoy han trascendido a otras materias del Derecho sancionador.
El estado actual de la evolución de la IA y sus impactos negativos, lo transforma en un deber a favor de la humanidad. Lo contrario será dejar el desarrollo de ésta al libre albedrío y voluntad de las corporaciones.
Si se critica, y con algún ápice de razón, que por ejemplo en la administración de justicia algunos jueces no están a la altura y que por ello podrían ser reemplazados por sistemas de IA,59 estamos cometiendo un error en perder las esperanzas y desconfiar por completo en nuestra especie. Pues, son las estructuras que hoy están desarrollando y usando IA, las que también no han permitido tener un sistema judicial sólido e independiente, para servirse de él cuando la deficiencia estructural lo necesita. Antes de anhelar jueces de IA, supuestamente imparciales (no existe evidencia científica que demuestre que así lo serán) deberíamos consolidar y robustecer el acceso al sistema de justicia y ser consecuentes con nuestro género.
Como hemos visto, la jurisprudencia de tribunales nacionales e internacionales ya se está pronunciando al respecto, reconociendo que la IA debe ser más humana, segura, responsable y equitativa; y, que sus sistemas y forma de tomar decisiones deben ser transparentes y entendibles.
identidad mental, libre albedrío, acceso justo a la mejora mental y protección contra el sesgo algorítmico.
57 Chile Corte Suprema, “Sentencia Rol 105065-2023, 09 de agosto de 2023, considerando noveno”, https://juris.pjud.cl/busqueda/pagina_detalle_sentencia?k=L2FadjlzYUdmbGx1UWNKWmV6ZjZ3dz09.
58 Carolina Sánchez Vásquez, “El derecho al control humano: Una respuesta jurídica a la inteligencia artificial” Revista chilena de Derecho y tecnología, Vol. 10 No. 2 (2021): 211-28, doi:10.5354/0719-2584.2021.58745.
59 Sobre los jueces robot existen pronunciamientos a favor y en contra, tema que se puede profundizar entre los defensores del transhumanismo y los defensores de la IA antropocéntrica o centrada en el ser humano. Como queda fijado en el texto principal, mi posición es que la IA debe ser una herramienta de optimización, más no el reemplazo de las personas y jueces. Un gran estudio sobre la algoritmización de la justicia puede verse en Barona Vilar, “Algoritmización del Derecho y de la Justicia. De la Inteligencia Artificial a la Smart Justice”, 347 y ss. Sobre el debate entre transhumanismo e IA antropocéntrica López Oneto, “Fundamentos para un Derecho de la Inteligencia Artificial ¿Queremos seguir siendo humanos?”.
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
17
Los principios del Derecho de la inteligencia artificial. Una propuesta de hard law.
La positivización de los principios del Derecho de la IA, tienen relevancia práctica en los ámbitos social, procesal administrativo y judicial. Pues, si llegamos a contar con un principio propersona, además de que no se daría demasiada importancia a las máquinas y se antepondría la relevancia del humano, no correríamos el riesgo de ser reemplazados. En el ámbito del principio de transparencia, podremos contar con sistemas de IA de código abierto que permitan conocer la forma en que se tomaron las decisiones y las pruebas que se analizaron para ello, evitando vulneración de derechos. Asimismo, si contamos con una IA bajo el principio de beneficencia, la misma debería ser desarrollada sin sesgos y sin peligros de que sus sistemas tomen decisiones discriminatorias, que no afecten a las personas.
De la misma forma, una IA humana, transparente y beneficiosa para las personas, al ser una tecnología transversal que se introduce en todos los ámbitos como laboral, educación y social, aportará a vivir en una sociedad más justa y equitativa, objetivo y fin para los cuales fue creada.
18
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
Bibliografía
Alexy, Robert. Teoría de los derechos fundamentales. Madrid: Centro de estudios constitucionales, 1993.
Barona Vilar, Silvia. Algoritmización del Derecho y de la Justicia. De la Inteligencia Artificial a la Smart Justice. Valencia: Tirant lo Blanch, 2021.
Barrio Andrés, Moisés. “Objeto, ámbito de aplicación y sentido del reglamento europeo de inteligencia artificial”. En El Reglamento Europeo de Inteligencia Artificial, dir. Moisés Barrio Andrés, 21-48. Valencia: Tirant lo Blanch, 2024.
_____. Manual de Derecho Digital 3.ª ed. Valencia: Tirant lo Blanch, 2024.
Borges Blázquez, Raquel “El sesgo de la máquina en la toma de decisiones en el proceso penal”.
Ius Et Scientia, Vol. 6, No. 2 (2020): 54-71. doi: 10.12795/IETSCIENTIA.2020.
i02.05.
CE, Comité de Ministros. Convenio Marco del Consejo de Europa sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho. 17 de mayo de 2024.
Centro Latinoamericano de Administración para el Desarrollo, Carta Iberoamericana de Inteligencia Artificial en la Administración Pública, s/f. Capítulos 1.1.3. y 3.
Chile
Corte
Suprema.
“Sentencia
Rol
105065-2023
de
09
de
agosto
de
2023”.
https://juris.pjud.cl/busqueda/pagina_detalle_
sentencia?k=L2FadjlzYUdmbGx1UWNKWmV6ZjZ3dz09.
Colombia Corte Constitucional. “Sentencia T-323 de 02 de agosto de 2024”. https://www.
corteconstitucional.gov.co/relatoria/2024/T-323-24.htm.
Colombia Corte Constitucional. “Sentencia T-067 de 26 de febrero de 2025”.
Comisión Europea, Commission Staff Working Document Impact Assessment. Bruselas: Comisión Europea, 2021.
_____. Grupo independiente de expertos de alto nivel sobre inteligencia artificial, Directrices Éticas para una IA fiable. Bruselas: Comisión Europea, 2018.
_____. Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza. Bruselas: Comisión Europea, 2020.
Corcoy Bidasolo, Mirentxu. “Problemática de la persecución penal de los denominados delitos informáticos: particular referencia a la participación criminal y al ámbito espacio temporal de comisión de los hechos”. Eguzkilore, No. 21 (diciembre 2007): 7–32.
https://www.ehu.eus/es/web/ivac/cuaderno-eguzkilore-21.
Ezeani, Gabriella, Ansgar Koene, Richa Kumar, Nicole Santiago y David Wright. Una encuesta sobre el riesgo de la inteligencia artificial evaluación metodologías. La situación mundial y las principales prácticas identificadas. Trilateral Research, 2021.
Floridi, Luciano y Josh Cowls. “A Unified Framework of Five Principles for AI in Society”.
Harvard Data Science Review Issue 1.1 (2019): s/p. doi:10.1162/99608f92.8cd550d1.
Floridi, Luciano, Matthias Holweg, Mariarosaria Taddeo, Javier Amaya, Jakob Mökander y Yuni Wen, “capAI, un procedimiento para realizar evaluación de la conformidad de los sistemas de IA en consonancia con la Ley de Inteligencia Artificial de la UE”.
Reino Unido: Universidad de Oxford, 2022. https://papers.ssrn.com/sol3/papers.
Genser, Jared, Stephen Damianos y Rafael Yuste, International Human Rights Protection Gaps in the Age of Neurotechnology. Neurorights Foundation, 2022. https://static1.
squarespace.com/static/60e5c0c4c4f37276f4d458cf/t/6275130256dd5e2e11d4bd1b/.
_____. Safeguarding Brain Data: Assessing the Privacy Practices of Consumer Neurotechnology Companies. Neurorights Foundation, 2024. https://www.perseus-strategies.com/
wp-content/uploads/2024/04/FINAL_Consumer_Neurotechnology_Report_
Neurorights_Foundation_April-.
Jobin, Ana, Marcelo Lenca, y Effy Vayena. “El panorama global de las directrices éticas de la IA”. Nat Mach Intell 1 (2019): 389–99. doi:10.1038/s42256-019-0088-2.
López Oneto, Marcos. Fundamentos para un Derecho de la Inteligencia Artificial ¿Queremos REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014
19
Los principios del Derecho de la inteligencia artificial. Una propuesta de hard law.
seguir siendo humanos?. Valencia: Tirant lo Blanch, 2020.
Martínez Garay, Lucía. “Peligrosidad, algoritmos y due process: el caso State v Loomis” . UNED.
Revista de Derecho Penal y Criminología, No. 20 (2018): 485-502. https://hdl.handle.
Mathiesen, Kay. “The human right to internet access: a philosophical defense”. International Review of Information Ethics, Vol. 18 (2012): 9-21. doi: 10.29173/irie299.
Misuraca, Gialuca y Tanya Álvarez, Algoritmos de gobierno: peligros y poderes de la IA en el sector público. Barcelona: Sociedad del futuro digital, 2021.
Navas Navarro, Susana. “Derecho e inteligencia artificial desde el diseño. Aproximaciones”.
En Inteligencia Artificial, Tecnología Derecho, directora Susana Navas Navarro, 23-72.
Valencia: Tirant lo Blanch, 2017.
Oliver, Nuria. “Governance in the Era of Data-driven Decision-making Algorithms”. En Women Shaping Global Economic Governance. (London: CEPR Press, s/n (2019): 171-80. https://nuriaoliver.com/papers/Oliver_FATEN.pdf.
______. Inteligencia Artificial: Ficción, Realidad y ...Sueños. Madrid: Real Academia de Ingeniería, 2018.
OCDE, Recommendation of the Council on Artificial Intelligence, 2024. 5-9.
PE, Resolución del Parlamento Europeo. Aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas. 20 de octubre de 2020.
Ponce Solé, Juli. “Inteligencia artificial, Derecho administrativo y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico”. Iustel, No. 50 (enero, 2019): s/p. https://laadministracionaldia.inap.es/noticia.asp?id=1509505.
Sánchez Vásquez, Carolina. “El derecho al control humano: Una respuesta jurídica a la inteligencia artificial”. Revista chilena de Derecho y tecnología, Vol. 10 No. 2 (2021): 211-28. doi: 10.5354/0719-2584.2021.58745.
Tasioulas, John. “Artificial Intelligence, Humanistic Ethics”. Daedalus, Spring, Vol. 151, No. 2
(2022): 232-43. https://www.jstor.org/stable/10.2307/48662038.
Tribunal Europeo de Derechos Humanos. “Sentencia asunto C 203/22, 27 de febrero de 2025”.
https://curia.europa.eu/juris/documentument.?text=&docid=295841&page Index=0&doclang=EN&mode=req&dir=&occ=first&part=1&cid=15673976.
UE Parlamento. Reglamento de Inteligencia Artificial. 12 de julio de 2024. (UE) 2024/1689.
UNESCO. Recomendación sobre la ética de la inteligencia artificial. París: UNESCO, 2022.
Valdés, Erick. Bioderecho. Epistemologías y aplicaciones en tiempos de pandemia y riesgo existencial. Valencia: Tirant lo Blanch, 2021.
Vestri, Gabriele. “La inteligencia artificial ante el desafío de la transparencia algorítmica.
Una aproximación desde la perspectiva jurídico-administrativa”. Revista Aragonesa de Administración Pública, No. 56 (2021): 368-98. https://dialnet.unirioja.es/servlet/
articulo?codigo=7971161.
_____.“Transparencia y justicia algorítmica en el sector público: un análisis entre el factor humano y el aprendizaje profundo”. En Inteligencia artificial y administraciones públicas: una triple visión en clave comparada, directores Agustí Cerrillo I Martínez, Francesca Di Lascio, Isaac Martín Delgado y Clara I. Velasco Rico, 253-63. Madrid: Iustel, 2024.
Vila Casado, Iván. Fundamentos del derecho constitucional contemporáneo. Bogotá: Universidad Libre, 2021.
20
REVISTA CAP JURÍDICA CENTRAL 9(16), enero - junio 2025 | pISSN 2550-6595 | eISSN 2600-6014