Reflexiones sobre la interacción entre la inteligencia artificial y el derecho

Por Laura Méndez y Rebeca Sánchez.

Artículo publicado en Nexos, el día 4 de octubre de 2023.
Sólo unos meses han transcurrido desde la primera vez que escribimos sobre el impacto de la inteligencia artificial (IA) en el derecho. La velocidad en el desarrollo de la tecnología y su adopción por parte de la sociedad genera la necesidad de revisitar algunos puntos.
Además del impacto en el derecho, la tecnología ha tenido un claro efecto en materia económica. Goldman Sachs anticipó hace unos meses que el desarrollo de inteligencia artificial generativa (IAG)1 tenía el potencial de crear cambios radicales en la economía mundial y que podría incrementar en 7 % el producto interno bruto mundial (aproximadamente $7 billones de dólares) en un periodo de 10 años.2
No tuvimos que esperar mucho para observar impactos económicos extraordinarios causados por la IAG. A finales de mayo de 2023, el valor de mercado de Nvidia superó el billón de dólares por primera vez.3
El desarrollo de IAG requiere de chips denominados unidades de procesamiento gráfico y se estima que Nvidia fabrica aproximadamente el 80 % de esos chips.4 En una señal clara sobre el continuo crecimiento de la demanda de chips por el auge de la IAG, Nvidia duplicó sus ventas en el segundo trimestre de 2023 y hace unos días proyectó que sus ingresos por ventas se triplicarán durante el tercer trimestre de este año.5
Los beneficios económicos causados por la IA no se limitan a empresas de tecnología. El territorio británico de Anguila estima un incremento en sus ingresos en un monto equiparable al 10 % de su producto interno bruto, ya que dicho territorio controla y recibe ingresos por el registro de dominios con la terminación “.ai”,6 la cual coincide con las siglas en inglés de la tecnología.
Recientemente, KPMG realizó un estudio sobre las percepciones de ejecutivos de diversas industrias en relación con la IAG y determinó, entre otros, que la IAG sigue siendo considerada una de las tecnologías emergentes más importantes, con el potencial de incrementar la productividad laboral y que la falta de talento capacitado es uno de los retos principales percibidos para su implementación.7
Normalmente, el sector privado es renuente a ser regulado. Por esa razón, fue interesante escuchar a Sam Altman, CEO de OpenAI (creador de ChatGPT), declarar ante el Senado de Estados Unidos que, si bien la tecnología tiene la potencia para mejorar nuestras vidas, se requiere de intervención gubernamental para mitigar diversos riesgos. Entre otros, Altman planteó que pueden establecerse diversos requisitos para permitir el desarrollo de modelos que superen cierto umbral de capacidad.8
Unos días después del testimonio de Altman, comprobamos uno de los peligros de la tecnología con respecto a la difusión de desinformación. Una imagen creada con la ayuda de IAG, que mostraba una supuesta explosión en el Pentágono, generó incertidumbre y la caída de los mercados financieros de Estados Unidos.9
Hace unas semanas, siete de las compañías lideres en el desarrollo de IA –Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI– aceptaron asumir ciertos compromisos establecidos por el gobierno de Estados Unidos para incentivar un desarrollo seguro y transparente de la tecnología, mientras el gobierno trabaja en la legislación correspondiente.10
Seguramente, habrá un amplio debate sobre el contenido de esa regulación y qué tanto debe intervenir el gobierno, pero lo que es innegable es que la IA es una fuerza cuyo impacto en la sociedad crece exponencialmente y, por la forma en la que opera, está íntimamente ligada con el derecho.
I. Propiedad intelectual
En Estados Unidos, el uso de inteligencia artificial es uno de los temas más debatidos en las huelgas de escritores y actores en Hollywood.11
La preocupación de los actores se relaciona principalmente con el uso de su imagen. Lo que el sindicato de actores (Screen Actors Guild y la American Federation of Television and Radio Artists) quiere evitar es que los empleadores (representados por la Alliance of Motion Picture and Television Producers) paguen al actor por unas horas de trabajo, en las cuales se digitalice su imagen o apariencia, y el empleador utilice la imagen para entrenar modelos de IA que reproduzcan dicha imagen para cualquier fin y sin requerir el consentimiento del actor.12
Las preocupaciones de los escritores giran en torno al crédito que reciben por su trabajo. El sindicato de escritores (Writers Guild of America) ha manifestado que los escritores están de acuerdo en utilizar la IA como una herramienta de trabajo, pero no quieren que haya afectación al crédito (reconocimiento) que reciben, debido a que lo consideran un factor esencial para su prestigio y la compensación que reciben.13
En las negociaciones, hay dos conceptos clave para los escritores: (i) “material literario” (literary material) que está relacionado con guiones y otros contenidos preparados por guionistas; y (ii) “material de origen” (source material) que se relaciona con novelas, videojuegos u otro tipo de obras que los guionistas pueden convertir en guiones. Lo que busca evitar el sindicato de escritores es que el material que sea producido por sistemas de IA sea considerado, ya sea material literario o material de origen.14
En el corazón de la disputa está la preocupación no sólo de perder o compartir crédito sino competir con plataformas de IA por premios o reconocimientos si se les reconoce autoría a dichas plataformas.
A la fecha de elaboración de este artículo, el sindicato de escritores ha llegado a un acuerdo tentativo con las compañías de entretenimiento para celebrar un nuevo contrato, en el cual se incluiría lenguaje para atender las preocupaciones relacionadas con el uso de la IA.15
En caso de aprobarse, éste sería uno de los primeros acuerdos privados que busquen contener o reducir ciertos efectos del uso de la IA en la industria del entretenimiento.
En nuestro primer análisis sobre IA y derecho, advertimos que una cuestión relevante en materia de propiedad intelectual era la potencial infracción de derechos al entrenar modelos de IA sin el consentimiento de los propietarios de la información o imágenes. Asimismo, comentamos que la regulación o las decisiones sobre el acceso y uso de información propiedad de terceros sería uno de los temas más relevantes a resolver en relación con IA
Adicional a las acciones legales entabladas por artistas visuales en contra de empresas de IA, OpenAI y Meta han sido demandados por presuntamente haber entrenado a sus modelos de IAG con el material creado por dichos escritores. Los escritores argumentan que su material —protegido por derechos de autor— fue copiado de fuentes que no tenían autorización para tener el material (shadow libraries) y utilizado en el entrenamiento de los modelos de los demandados.16
Hade unos días, OpenAI solicitó que la mayoría de los casos de los escritores fueran desestimados. Uno de sus argumentos se relaciona con el caso entre Authors Guild y Google Inc., en el que se determinó que la práctica de Google Books de resumir textos y generar extractos de libros no era violatoria de derechos de autor.17 Al respecto, OpenAI afirmó que, aunque un libro puede estar protegido por derechos de autor “la información estadística relativa a “frecuencias de palabras, patrones sintácticos y marcadores temáticos” de ese libro queda fuera del ámbito de protección.”18
Recientemente, The New York Times actualizó sus términos de servicio para prever que, salvo que exista previo consentimiento por escrito, su contenido no puede ser utilizado para “… el desarrollo de cualquier programa de software, incluido, entre otros, el entrenamiento de un sistema de aprendizaje automático (machine learning) o de inteligencia artificial (IA)…”.19
Dicha modificación es una de las acciones que está tomando The New York Times, quien presuntamente se encuentra en tensas negociaciones con OpenAI (creador de ChatGPT) para establecer algún acuerdo de licencia sobre su contenido.20
Una de las preocupaciones de The New York Times es que OpenAI se ha vuelto su competidor directo, ya que tiene la capacidad de generar respuestas con base en el contenido producido por los reporteros del periódico.21
Es cuestión de tiempo para que veamos el resultado de un proceso legal que resuelva sobre la existencia de una violación a derechos de autor, en virtud del contenido con el que se ha entrenado a un modelo de IAG y la falta de consentimiento del autor.
Una decisión de tal naturaleza muy probablemente no detenga la revolución de IAG, pero puede alterar la forma en la que se entrenan los modelos y establecer un importante precedente sobre la contraprestación que deben recibir los autores del material que alimenta dichos modelos.
II. Esfuerzos regulatorios
China
En abril de 2023, China publicó una propuesta de lineamientos preliminares para regular servicios de IAG.22 En julio de 2023, la Administración del Ciberespacio de China (Cyberspace Administration of China) publicó la versión final, la cual resultó ser ligeramente más flexible que la primera versión publicada.23
Por ejemplo, la primera versión establecía que las reglas eran aplicables a la investigación, desarrollo y uso de productos con funciones generativas de IA y a la prestación de servicios. La última versión de las reglas regula únicamente la prestación de servicios.24
Los lineamientos entraron en vigor el 15 de agosto de 2023 y algunas de las reglas más importantes son las siguientes:25
Las reglas son aplicables al uso de tecnología de IAG para la prestación de servicios de generación de texto, imágenes, audio, vídeo y otros contenidos ofrecidos al público dentro del territorio de China.26
La provisión de servicios, además de cumplir con la regulación aplicable, debe adherirse a los valores fundamentales del socialismo y no debe incitar a perturbar el poder del Estado, derrocar el sistema socialista, poner en peligro la seguridad nacional, dañar la imagen nacional o socavar la unidad nacional y la estabilidad social.27
En el proceso de diseño de algoritmos, selección de datos de entrenamiento, generación y optimización de modelos y prestación de servicios, tomar medidas eficaces para evitar la discriminación por motivos de etnia, creencias, país, región, sexo, edad, ocupación, estado de salud, etc.28
En el tratamiento de información para efectos de entrenamiento, los proveedores de servicios de IAG deberán, entre otros: (i) usar información y modelos con fuentes legítimas, (ii) no vulnerar derechos de propiedad intelectual de terceros, y (iii) cuando se trate de datos personales, obtener el consentimiento o seguir el procedimiento que corresponda de acuerdo con la legislación aplicable.29
Prevenir que los usuarios que sean menores de edad confíen excesivamente en la IAG.30
Los proveedores de servicios no deben recabar información personal que no sea necesaria.31
Los proveedores deben marcar las imágenes, vídeos y otros contenidos generados de conformidad con la Regulación sobre la Administración de Síntesis Profunda de los Servicios de Información de Internet.32
Cuando un proveedor descubra contenido ilegal, deberá adoptar sin demora medidas de remediación, como detener la generación, detener la transmisión y la eliminación, así como optimizar modelos para la rectificación e informar a la autoridad competente pertinente.33
De igual forma, si los servicios de IAG no cumplen con las disposiciones aplicables, los usuarios tienen derecho a reclamar y a reportarlo a las autoridades competentes.34
Un reto para la regulación de la IA en China es que el regulador está tratando de establecer un balance entre el control estatal de la tecnología y, a la vez, permitir que sus empresas puedan competir internacionalmente.
Cabe señalar que los lineamientos que entraron en vigor en agosto no son el primer esfuerzo regulatorio de China en relación con IAG. Por ejemplo, en enero de este año, entró en vigor la Regulación sobre la Administración de Síntesis Profunda de los Servicios de Información de Internet.35
Dicha regulación tiene como objeto, entre otros, prevenir que tecnología de síntesis profunda (basada en IA) se utilice para producir o diseminar información (conocida comúnmente como deepfakes) que esté prohibida por la regulación, ponga en peligro la seguridad nacional, dañe la imagen del país, perturbe el orden social y atente contra derechos de terceros.36
La regulación prohíbe expresamente el uso de esta tecnología para producir, copiar, publicar o difundir información sobre noticias falsas.37 Asimismo, cuando el sistema de síntesis profunda ofrezca funciones para editar información biométrica (como el rostro o la voz), el proveedor deberá pedir al usuario que notifique a la persona cuya información personal se edita y obtener su consentimiento por separado.38
Si bien la regulación de China es posible gracias a su forma de gobierno, es inevitable pensar en el beneficio que tendrían varios países, con regímenes distintos, si contaran con un mecanismo que les ayude a prevenir la difusión de desinformación, la cual puede tener un impacto importante en procesos electorales.
Latinoamérica
El Centro Nacional de IA de Chile, con el apoyo del Banco Interamericano de Desarrollo, la Corporación Andina de Fomento, la Organización de Estados Americanos y la UNESCO, entre otras instituciones y empresas privadas, elaboró el primer índice latinoamericano de IA (ILIA), el cual es un estudio multinacional que analiza el estatus de la IA en Latinoamérica y el Caribe. Además del tema regulatorio, el estudio cubre otros temas como capital humano, infraestructura y participación ciudadana.39
Con respecto a regulación, el ILIA analizó el nivel de madurez de cada país y, para ello, se distinguieron tres niveles: (i) existencia de una regulación específica de IA; (ii) la presencia de regulación relacionada (ciberseguridad y protección de datos); y (iii) iniciativa de experimentación regulatoria. Con base en estos criterios, los países que obtuvieron mejores resultados en materia regulatoria fueron Brasil, Colombia y Perú.40
México no obtuvo una calificación alta en el ILIA. A pesar de contar con una ley de protección de datos personales vigente y con proyectos de experimentación regulatoria, no cuenta con regulación específica para IA ni con legislación en materia de delito informático y seguridad.41
Con respecto al resto de los países analizados, Brasil y Chile ya cuentan con un proyecto de regulación que está en proceso de aprobación y Perú es el único país que cuenta con legislación aprobada específica para IA.42
En 2020, el Poder Ejecutivo de Perú emitió un decreto de urgencia para garantizar la confianza de las personas en su interacción con servicios digitales, mediante el cual, entre otros, estableció que las entidades públicas y las organizaciones del sector privado debían asegurar el uso ético de tecnologías digitales, incluyendo la inteligencia artificial.43
En julio de 2023, se publicó en Perú la Ley que Promueve el Uso de la Inteligencia Artificial en favor del Desarrollo Económico y Social del País, la cual establece una serie de principios rectores para el uso y desarrollo de la IA en el país.44
III. Datos personales
En julio de este año, Sam Altman presentó el nuevo proyecto de criptomoneda de OpenAI denominado Worldcoin. Para su operación, Worldcoin ofrece un WorldID. De acuerdo con Altman, el WorldID consiste en un pasaporte digital que permitirá distinguir entre un ser humano y un bot de IA. Para obtener el WorldID, se requiere del escaneo del iris del ojo.45
Más allá de la discusión sobre futuros escenarios distópicos donde necesitamos estos mecanismos para distinguirnos, una pregunta inmediata es cómo será protegida la información biométrica de los usuarios.
El desarrollo, la operación y la utilidad de herramientas de IA están estrictamente ligados con información personal y, similar a lo que ocurre con los retos en materia de propiedad intelectual, hay un largo camino que recorrer para garantizar el tratamiento adecuado y la protección de dicha información.
En el caso de Worldcoin, varias agencias nacionales protectoras de datos personales han mostrado preocupación por el uso y la seguridad con la que los datos biométricos son almacenados, tal es el caso de Portugal,46 Argentina,47 Francia,48 Alemania49 y Reino Unido.50 El gobierno de Kenia ha suspendido las actividades relacionadas con la inscripción y recopilación de información biométrica de usuarios de Worldcoin y de cualquier otra entidad que opere de forma similar, citando la protección de datos como una de sus principales preocupaciones.51
El caso de Kenia resalta otro de los riesgos relacionados con la IAG y los datos personales. Los modelos con base en los cuales operan las plataformas de IAG se alimentan de información. Un gran volumen de información facilita el entrenamiento del modelo y, por lo tanto, contribuye a su aprendizaje y precisión. Por esa razón, las empresas de IAG están interesadas en tener la mayor información posible.
En ciertos países donde le estaba permitido, Worldcoin ofreció gratuitamente 25 unidades de su criptomoneda WLD como incentivo para obtener un WorldID.52 El valor del token WLD fluctúa, pero a inicios de agosto de este año alcanzó los $2.49 dólares por unidad,53 lo que implica que la oferta de Worldcoin podría superar los $60 dólares y eso la volvió sumamente atractiva; particularmente, para ciertos sectores de la población.
En Kenia, miles de personas proporcionaron acceso a sus datos biométricos, muchos de ellos por necesidad económica.54 Lo mismo ocurrió en Uganda55 e Indonesia.56 A la fecha de elaboración de este artículo, Worldcoin ha registrado a 2 320 080 personas en más de 120 países.57
El entrenamiento de modelos relacionados con IA con base en información personal públicamente disponible es otro punto que deberá ser revisado en las distintas jurisdicciones para confirmar cómo proteger dicha información ante la forma en la que plataformas de IA la usan para entrenar sus modelos.
Por ejemplo, X (antes conocido como Twitter) actualizó recientemente su política de privacidad y en ella establece que puede utilizar la información que recaba y la información disponible públicamente para entrenar sus modelos de aprendizaje automático (machine learning) o de IA.58 En la actualización a su política de privacidad, X estableció que recabará, entre otros, datos biométricos de los usuarios para cuestiones relacionadas con seguridad e identificación.59
En México, la Ley Federal de Protección de Datos Personales en Posesión de los Particulares establece que no es necesario el consentimiento para el tratamiento de datos personales cuando los datos se encuentren en fuentes de acceso público,60 pero eso no implica que el responsable del tratamiento de los datos esté autorizado para incumplir con el resto de las disposiciones de la ley y su reglamento.
Por su parte, el Reglamento General de Protección de Datos de la Unión Europea (GDPR, por sus siglas en inglés) establece distintos escenarios para la información recabada públicamente —por ejemplo, permitir el procesamiento de ciertos datos sensibles que el titular ha hecho públicos de forma manifiesta—61 pero el hecho de que la información esté disponible públicamente de ninguna forma implica que no está protegida por los principios y demás disposiciones del reglamento.
En California, la información públicamente disponible puede tener un tratamiento materialmente distinto en ciertos casos. Su ley de privacidad (California Consumer Privacy Act) no considera que la información públicamente disponible es información personal y, por tanto, podría estar fuera de la protección de dicho ordenamiento. No obstante, la definición del término “públicamente disponible” limita los casos en los que la información será considerada como tal. Por ejemplo, la información biométrica no es considerada como públicamente disponible si el negocio (responsable) la obtuvo sin el conocimiento del consumidor (titular de los datos).62
Es claro que las plataformas digitales que utilicen información personal para entrenar a sus modelos de IA tendrán que cumplir con distintos requisitos, dependiendo de la jurisdicción y regulación que les aplique. Lo que está por definirse es cómo van a cumplir con los diversos derechos que los titulares de esos datos personales seguirán teniendo, especialmente en aquellos casos en los que el tratamiento estuvo permitido únicamente porque la información estaba disponible públicamente.
IV. Conclusiones
Una de las tendencias que hemos detectado en los últimos meses es que, si bien la IA sigue teniendo una fuerza innegable que mueve y revoluciona industrias, la ansiedad sobre la capacidad de controlarla o el fatalismo que generaba parece haber disminuido. Al menos, los estimados de tiempo para que los cambios surtan efectos han cambiado.
Por ejemplo, JP Morgan está siendo sumamente cauteloso con la adopción de la tecnología y ha prohibido el acceso a ChatGPT de sus computadoras, tomando en cuenta los riesgos que existen en materia de confidencialidad, manejo de datos y la precisión de las respuestas obtenidas. Ese parece ser un acercamiento común de varias empresas que ya están probando la tecnología, pero no anticipan un uso generalizado en el futuro cercano.63
Hay muchos temas pendientes en la interacción entre IA y derecho. Además de propiedad intelectual, esfuerzos regulatorios y protección de datos personales, consideramos que hay dos temas fundamentales que requieren un análisis específico.
El primero lo adelantamos en nuestro primer acercamiento al tema, cuando discutimos el efecto de la IA en la protección de derechos humanos y es el reto de evitar sesgos (bias) y que los sistemas de IA contengan “discriminadores silenciosos”.
Como hemos señalado, el entrenamiento de modelos requiere información. El problema es que esa información puede contener sesgos o reflejar implícitamente inequidades sociales e históricas.64
Otro punto que es imprescindible considerar es la capacidad que tiene la IAG para generar desinformación. La combinación de esa capacidad con la facilidad de difusión que las plataformas digitales permiten puede volverse un gran problema para ciertos países.
El próximo año, tanto México como Estados Unidos tendrán elecciones presidenciales y, salvo que ocurra algo extraordinario, ambos países enfrentarán dichos procesos sin una regulación específica de IA que les ayude a evitar que la desinformación tenga un efecto adverso en sus procesos democráticos.
Comentarios de nuestros alumnos