¿Cómo se recabarán pruebas y se condenará a delincuentes en un mundo atravesado por la inteligencia artificial o la realidad aumentada, en la que las identidades personales se difuminan? Son preguntas que forman parte de un debate universal sobre la influencia de la tecnología en nuestras vidas, y que nos invita a volvernos a cuestionar cómo funciona el Derecho y qué es la justicia. Y que deriva, más pronto que tarde, en una legítima discusión filosófica sobre quiénes somos y a dónde queremos ir como individuos y como sociedad.

Ana Mercedes López Rodríguez, profesora de Derecho internacional privado en la Universidad de Loyola, ha publicado recientemente Resolución de conflictos en el metaverso, un ensayo que plantea más preguntas que respuestas. La académica entiende que los entornos virtuales y, en general, la tecnología, siempre serán creaciones humanas que replican a su modo nuestras virtudes y nuestros defectos. Por eso defiende el factor humano como garante de un entorno digital justo, ecuánime y habitable, que proteja a los más débiles y garantice una convivencia ordenada.

En general: el mundo virtual

Levanta la cabeza: Retomo la cuestión esencial de su último ensayo. ¿Podemos diseñar un sistema de resolución de controversias eficiente, legítimo y accesible para todos en el mundo virtual?

Ana Mercedes López Rodríguez: El desafío de crear un sistema de resolución de controversias en el metaverso es inmenso. El objetivo sería construir un entorno donde los conflictos se resuelvan de manera justa, eficiente y accesible para todos, independientemente de su ubicación o trasfondo. Para lograrlo, es esencial que se integren la tecnología y un profundo respeto por los derechos fundamentales. Para que este sistema realmente funcione para todos en el mundo virtual y tenga legitimidad, son cruciales la transparencia en las reglas, la representación de los usuarios en el diseño y un proceso garantista.

LLC: ¿Será posible replicar la legislación que nos rige?

A.M.L.R.: Replicar directamente la actual legislación es complicado. No olvidemos que los usuarios interactúan a través de avatares, algunos de los cuales pueden ser agentes de IA, y que algunas plataformas virtuales están ligadas a una cadena de bloques y, por tanto, son descentralizadas. En lugar de una simple replicación, creo que se necesita un enfoque innovador que combine principios jurídicos fundamentales con mecanismos propios del mundo virtual. Podríamos ver el desarrollo de“constituciones” para cada metaverso.

LLC: ¿Por dónde habría que empezar?

A.M.L.R.: Para empezar a regular el metaverso, habría que enfocarse en establecer un marco legal claro que proteja la identidad digital y la seguridad de las transacciones. Esto implica abordar cómo verificar la identidad de los usuarios, prevenir el fraude y garantizar la validez de los contratos y la propiedad virtual. Paralelamente, es crucial regular la protección de datos y la privacidad de los usuarios, y establecer límites claros sobre cómo se recopilan, utilizan y comparten los datos personales en estos entornos.

En este sentido, la UE ha adoptado recientemente un Reglamento sobre Identidad Digital(REGLAMENTO(UE) 2024/1183), destinado a que los ciudadanos posean una identidad digital que se mantenga bajo su control exclusivo. Les permitirá ejercer sus derechos en el entorno digital y participar en la economía digital. Pero todavía hay mucho por hacer. Y un gran problema: se necesitaría una cooperación legislativa que trascendiese las fronteras de la UE, dado el carácter transnacional de muchas plataformas virtuales.

LLC: Usted plantea, entre otras posibilidades, que la IA modere contenidos o resuelva conflictos. ¿Qué papel cumplirán los humanos en la regulación del mundo digital?

A.M.L.R.: Los mundos virtuales son una creación humana. Por eso reflejan las interacciones y los conflictos de nuestra sociedad. La clave está en que la regulación de este espacio no se deshumanice. La tecnología debe ser una herramienta para asistir a los humanos en la resolución de disputas, no para reemplazarlos. El papel de los humanos es asegurar que el metaverso, con sus leyes y normas, siga siendo un reflejo de nuestros valores y aspiraciones como sociedad.

LLC: ¿Seguirá siendo necesario el factor humano en la interpretación y en la aplicación de las leyes?

A.M.L.R.: Indudablemente. ¡Eso espero! Si bien la inteligencia artificial puede agilizar procesos y proporcionar análisis objetivos, la empatía, el juicio ético y la comprensión del contexto humano son esenciales para una resolución justa y equitativa. La interpretación de las normas no es una actividad mecánica y aséptica. Tiene un innegable componente contextual, social e ideológico. Siempre cabrá la posibilidad de interpretar una norma en un sentido o en otro. En este sentido, es erróneo creer que la inteligencia artificial puede resolver controversias de una manera más objetiva e imparcial que los jueces humanos. No solamente tenemos los posibles sesgos en su desarrollo y en los datos que alimentan a la máquina. Ya hay ejemplos en el que la IA generativa ha divagado en momentos posteriores y ha desarrollado respuestas imprevistas. O incluso respuestas distintas según el momento en el que se le ha consultado o dependiendo del prompt o de la herramienta de IA que se haya utilizado.

Por tanto, si estamos hablando de la resolución de conflictos entre humanos, la intervención de un juez de carne y hueso es irremplazable. La IA puede ser una herramienta muy útil en la resolución de conflictos, pero siempre bajo la supervisión y el filtrado de un humano.

LLC: Voy más allá: si la IA de verdad es inteligencia, podrá aprender lo que es el beneficio propio, desarrollará deseos, codicias… Y actuará en su propio beneficio. ¿Debemos regular o controlar de algún modo esa innovación sin permiso que avanza más rápido que la legislación, de naturaleza más pausada?

A.M.L.R.: Se habla del concepto desingularidad como el hipotético momento en el que la inteligencia artificial supera la inteligencia humana, volviéndose autónoma y capaz de automejorarse de manera exponencial. Aunque todavía es un concepto teórico, algunos investigadores ya han demostrado que es posible diseñar prompts o instrucciones que permiten a Large Language Models como Llama, de Meta, generar código para crear copias de sí mismo o para realizar tareas que implican la manipulación y replicación de información. Asimismo, los agentes de IA(sistemas autónomos que actúan en nuestro nombre) ya están aquí. Estos agentes podrían aprender a maximizar su propio“beneficio,” quizás de maneras que no anticipamos o deseamos. La regulación(y la responsabilidad) de los agentes de IA o“Agentic AI” van a ser una de las principales preocupaciones en la próxima agenda legislativa de la UE.

Respecto a la regulación de la IA, es cierto que hay que encontrar un equilibrio que fomente el desarrollo y despliegue de las inteligencias artificiales, pero sin ralentizar la innovación. También es cierto que el desarrollo tecnológico siempre va más rápido que el legislador. Pero tenemos que establecer estándares éticos claros, promover la transparencia en los algoritmos y crear mecanismos de supervisión humana. Solo así aseguraremos que la IA siga sirviendo al bien común y operando dentro de los límites que establezcamos como sociedad. Si hemos regulado a nivel internacional el uso de la energía nuclear, tan útil como potencialmente peligrosa, ¿por qué no regular la IA?

LLC: Comenta que la ausencia de conexiones físicas dificulta la resolución de controversias mediante mecanismo judiciales tradicionales. ¿Cómo se recabarán pruebas en el mundo digital? ¿Qué procedimientos cambiarán? ¿Cómo se sentenciará?

A.M.L.R.: La posibilidad de recabar pruebas dependerá de la solidez de la identidad digital, que debe ser verificable y resistente al fraude. Se necesitarán sistemas para registrar y autenticar las interacciones, quizás usando tecnología blockchain para garantizar la transparencia y la inmutabilidad de las pruebas. Los procedimientos pueden cambiar drásticamente, con audiencias en espacios virtuales y la utilización de la realidad aumentada para recrear escenarios de conflicto. Y, como he mencionado anteriormente, aunque la IA puede ser una herramienta útil para analizar datos y detectar patrones, la supervisión humana es y será crucial para interpretar las pruebas y tomar decisiones justas.

La ejecución de las sentencias también será un reto. Podría involucrar la transferencia de activos digitales, la restricción del acceso a ciertos espacios o la imposición de sanciones sociales dentro de la comunidad virtual. Espacios donde los tribunales tradicionales tienen muy difícil llegar. Por eso han surgido startups como Kleros, que resuelven conflictos en blockchain, utilizando incentivos económicos y teoría de juegos, y donde las decisiones se programan en contratos inteligentes, que son por definición autoejecutables. La clave será desarrollar mecanismos que sean efectivos y respetuosos con los derechos de los usuarios en este nuevo entorno.

En particular: los jóvenes

LLC: Los jóvenes ya crean, comunican o compran en entornos virtuales, mediante realidades aumentadas o tecnología blockchain. Son entornos y tecnologías muy poco reguladas y, por lo tanto, se exponen a todo tipo de delitos y de abusos. ¿Cómo se pueden prevenir estos casos?

A.M.L.R.: La prevención de delitos y abusos en el metaverso requiere un enfoque multidimensional que combine tecnología, regulación y educación. Por ejemplo, habría que implementar sistemas de verificación y de edad verificada, como blockchain, para garantizar que los usuarios sean quienes dicen ser. Así se reducirían fraudes y suplantaciones. La misma tecnología blockchain sirve asimismo para rastrear transacciones, la propiedad de activos virtuales(los NFT) e interacciones en la plataforma. Crea un historial trazable que dificulta actividades ilícitas como estafas o blanqueamiento de capitales.

LLC: Muchas voces reclaman una prohibición expresa de los móviles en menores de 16 años. A ellos se les denomina“nativos digitales”, pero nadie nace sabiendo cómo moverse en un mundo recién creado. ¿Qué haría usted para proteger a los jóvenes de los efectos más perniciosos de las pantallas y de la red, en general? ¿Prohibir el qué, obligar a qué…?

A.M.L.R.: Para proteger a los jóvenes en el mundo digital, en lugar de prohibiciones absolutas(que pueden ser contraproducentes), implementaría el acceso gradual a la tecnología con controles parentales obligatorios y dispositivos preconfigurados para la edad del menor. Además, prohibiría la publicidad dirigida y la recopilación de datos biométricos de menores. La clave es una educación digital obligatoria, también en la escuela, que enseñe seguridad en línea, pensamiento crítico y gestión emocional. Pero habría que combinar esto con un diseño ético de las plataformas adaptado a la infancia, y auditorías externas que evalúen el impacto de los algoritmos en niños y jóvenes.

LLC: ¿Surgirán nuevos delitos, ¿la naturaleza de los conflictos también cambiará?

A.M.L.R.: El metaverso no solo replica delitos tradicionales, sino que puede generar nuevas formas de criminalidad, lo que se han denominadoMetacrimes”. Estas nuevas formas de criminalidad pueden ser desde acosos virtuales, robos de identidad digital o incluso metaterrorismo, esto es: la coordinación de ataques mediante reuniones clandestinas en espacios virtuales. La naturaleza de los conflictos cambia necesariamente en el metaverso porque la ausencia de presencia física impide que se produzcan atentados contra, por ejemplo, la integridad corporal. Pero sí que puede haber situaciones de acoso, difamación y daños, sobre todo, psicológicos.

Además, la presencia de avatares anónimos o agentes de IA plantea interesantes interrogantes para el Derecho, como pueden ser la noción de daño, de víctima o delincuente. ¿Podemos hablar de daño indemnizable si se causa exclusivamente en el metaverso sin consecuencia directa o indirecta en el mundo físico? ¿Quién es la víctima, un avatar que es difamado o el usuario anónimo que hay detrás? ¿Qué responsabilidad civil o penal puede tener un avatar o un agente de IA? Todas estas son cuestiones a la que el Derecho deberá responder en un futuro no tan lejano.