Hero Image

Noticias

La Facultad de Derecho UDD presenta el nuevo Observatorio de Derecho y Tecnología durante un seminario de Inteligencia Artificial

Más de 90 personas asistieron al encuentro que tuvo por objetivo analizar el uso de las nuevas tecnologías, en específico de la IA, y cómo su funcionamiento tiene que estar bajo un marco legal regulatorio, cuidando los datos personales y privacidad de sus usuarios.

En el marco del seminario “Desafíos regulatorios en materia de Inteligencia Artificial: Caso Chat GPT”, realizado el pasado 31 de mayo y organizado por el Centro de Derecho Regulatorio y Empresa, se anunció la puesta en marcha del nuevo Observatorio de Derecho y Tecnología de la Universidad del Desarrollo.

Este nuevo centro pretende convertirse en un espacio donde se puedan intercambiar visiones sobre la regulación tecnológica, junto con el estudio propio de esta disciplina.

Además, busca promover la investigación, el diálogo entre el sector público-privado, la academia y la ciudadanía, y posicionarse como actor clave en regulación tecnológica, incluyendo protección de datos personales, privacidad y ciberseguridad, ciencia de datos, inteligencia artificial, transformación digital para el sector público y privado, delitos informáticos y propiedad privada.

Seminario “Desafíos regulatorios en materia de Inteligencia Artificial: Caso Chat GPT”

Por su parte, el seminario tenía un panel de expertos compuesto por José Antonio Guridi, miembro de la red de expertos de IA de la OECD, Marcos López, profesor del Curso en Introducción al Derecho de la IA en la UDD, y Teresa Rodríguez de las Heras, miembro del grupo de expertos de la Comisión Europea en Inteligencia Artificial, quienes analizaron los desafíos de esta nueva tecnología y la regulación que se debe tener al respecto.

La conversación se centró en el desafío que tiene Chat GPT en materias de derecho regulatorio, por ejemplo, la transparencia de la información, debido a que no siempre se tiene certeza de la fuente, ni los datos con que fue cargada, sobre todo porque es estática y solo puede proporcionar información hasta una fecha específica, generando información incorrecta en muchos casos.

Ante esto, José Antonio Guridi, comentó que “uno tiende a creer que la Inteligencia Artificial es objetiva, sin embargo, no lo es y eso es un problema gigante. Este es un modelo que está entrenado con cierta información, que además está curada, y que es proporcionada por la empresa que lo creo, como lo es Open AI, en el caso de Chat GPT”.

Desafío regulatorio sobre la IA

El rápido avance de la tecnología en el campo de la Inteligencia Artificial genera nuevas tensiones y desafíos en términos de control, regulación y ética. Es por esto, que los expositores abordaron dos puntos de vista ante esto.

Por un lado, hay quienes abogan por detener el avance de la inteligencia artificial y regularla de forma estricta para evitar posibles violaciones de derechos fundamentales. Y por otro, hay quienes consideran que se debe permitir que la tecnología avance y que la regulación se vaya ajustando a medida que se enfrenten a problemas concretos.

También se abordó la importancia de la privacidad de los datos y de regular su uso de manera responsable, considerando los riesgos que conlleva y las posibles vulneraciones a los derechos fundamentales.  

Respecto a esto, Marcos López, afirmó que “sabemos que la IA está vulnerando derechos fundamentales en materia de relaciones laborales, por ejemplo, Estados Unidos está prohibiendo las entrevistas de reclutamiento de manera telemática porque estas utilizan un algoritmo que puede detectar si la persona que está mintiendo u ocultando algo. Lo que es malo porque todo ser humano tiene derecho a tener una “máscara”, mientras no se dañe al resto de las personas”.

IA bajo la lupa de Europa

De hecho, se destacó a la Red Iberoamericana de Protección de Datos, que inició una acción coordinada para abordar los riesgos y peligros que implican el uso de la inteligencia artificial en el tratamiento de datos personales.

Marcos López, agregó que ve esfuerzos notables en tratar de regular la transparencia algorítmica para evitar los sesgos y que “el reglamento de Protección de Datos europeo si está ayudando a encaminar bien a Latinoamérica y el uso que este le pueda dar a la inteligencia artificial”.

Por su parte, Teresa Rodríguez de las Heras, miembro del grupo de expertos de la Comisión Europea en Inteligencia Artificial, comentó que “el parlamento ha propuesto la incorporación de disposiciones a Chat GPT y modelos similares, destacando nuevos requisitos de transparencia sobre las fuentes de información obtenidas y de filtrado, para minimizar la vulneración de derechos de autor, básicamente sobre estas ideas giran las nuevas incorporaciones de los modelos similares a Chat GPT en la Ley de Inteligencia Artificial, que todavía no está aprobada y lo más probable es que tenga cambios durante su discusión”.

Es importante resaltar, que, aunque los modelos de lenguaje como GPT-3 son herramientas poderosas, todavía hay muchos desafíos por abordar hacia la Inteligencia Artificial General.

Y, además, se debe ser crítico con la información que generan y comprender sus limitaciones, así como considerar los aspectos éticos y regulatorios asociados con su desarrollo y uso.

Puedes revisar el seminario completo aquí:

VER MÁS NOTICIAS