32.8 C
Santo Domingo
domingo, julio 21, 2024

Nuevo marco jurídico para la IA: transparencia hasta la entrada en vigor del reglamento europeo | Legal

La reciente intensificación en el uso de herramientas que incorporan inteligencia artificial (IA) se debe, principalmente, a los avances en procesamiento del lenguaje natural que este tipo de herramientas han conseguido incorporar a su oferta de servicios. Esto permite que podamos interactuar con las máquinas de una manera mucho más sencilla y que, incluso, la máquina pueda elaborar el resultado que nos va a ofrecer de una manera más comprensible para los humanos y, por ello, más útil.

Hemos cambiado, por tanto, sistemas que ahora ya no parecen tan inteligentes pues se limitaban a repetir patrones o resultados para los que estaban programados por sistemas que nos pueden dar una ayuda mucho más estratégica y que, de alguna manera, son mucho más eficientes y aportan mucho más valor a las empresas. En esta situación, muchas empresas están estudiando incorporar diversas herramientas basadas en algoritmos o inteligencia artificial para múltiples funcionalidades dentro de cada sector de actividad, lo que genera también ciertos quebraderos de cabeza en las asesorías jurídicas encargadas de revisar y validar estas propuestas.

Para la generalidad, servicios ofrecidos hoy día y que las empresas valoran implementar, a pesar de que el marco normativo no esté aún en vigor, es necesario lógicamente llevar a cabo una serie de revisiones para determinar si el uso de estos sistemas es viable o por el contrario puede suponer un riesgo para las empresas. En crucial entender el funcionamiento técnico de las herramientas de cara a evaluar los riesgos jurídicos que entraña, principalmente en lo relativo las fuentes con las que ha sido entrenado el sistema, así como si la información introducida por la empresa va a ser utilizada para esa misma Finalidad de entrenamiento, o las consecuencias que puede tener el uso de estos sistemas para automatizar decisiones de negocio que puedan tener impacto en los usuarios, entre otras muchas cuestiones en función de la herramienta y su finalidad de uso.

Conflictos jurídicos relacionados con la inteligencia artificial llevan surgiendo desde hace muchos años. Ya en 1988, en Reino Unido, se debate acerca de si las obras generadas por ordenador podrían generar derechos de autor y en los últimos meses encontramos también disputas jurídicas por parte de autores y artistas que reclaman a los desarrolladores de este tipo de herramientas de inteligencia. artificiales supuestas infracciones de sus derechos para el «buen fin» de entrenar a las «máquinas». La oferta de herramientas cada vez más sofisticadas y que ayudan de forma sustancial al negocio crece por lo que equipos directivos, de desarrollo de negocio o marketing están planteando el uso o la implementación de este tipo de sistemas en diferentes ámbitos de su negocio.

Las empresas han de afrontar ahora un cuerpo normativo específico, el Reglamento Europeo de IA, que se está ya complementando con normativas adicionales, por ejemplo, en materia de responsabilidad de los fabricantes de aquellos productos que incorporan IA. El texto definitivo aprobado a primeros de diciembre por los Estados y la Eurocámara, apoya su redacción en un enfoque de riesgos, clasificando los usos de la inteligencia artificial en función del impacto que pueden tener en los derechos y libertades de los ciudadanos. Es decir, se identifican una serie de usos prohibidos de la inteligencia artificial, que van desde la utilización de estas tecnologías para explotar debilidades de colectivos vulnerables, técnicas de calificación social, identificación biométrica remota en tiempo real en espacios de acceso público, sistemas policiales predictivos. , entre otros.

Además de esta categoría, digamos, de riesgo inaceptable y que, por tanto, no se va a poder llevar a cabo, encontramos los sistemas de IA considerados de alto riesgo, en los cuales se permite un determinado uso de la tecnología siempre que se aplica. una serie de garantías ex-ante, que implican la implementación de un sistema de gestión de riesgos, y gobernanza del sistema, entre otras medidas encaminadas a identificar y limitar los riesgos. El resto de los sistemas de inteligencia artificial se consideran sistemas generales de IA, cuyo uso también será aparejado, principalmente, obligaciones de transparencia y revisión continua. Probablemente se impongan modelos externos de certificación que puedan ayudar a las empresas a demostrar el cumplimiento.

En mi opinión, durante 2024 vamos a ver un desarrollo muy importante de los modelos fundamentales. Estos modelos son sistemas de inteligencia artificial entrenados conjuntos de datos masivos no etiquetados de cara a entrenar un modelo básico como punto de partida para desarrollar modelos de aprendizaje automático que sean capaces de realizar una gran variedad de tareas generales, como comprender el lenguaje, generar texto e imágenes y conversar en lenguaje natural. Esto supone que las empresas que los quieran utilizar puedan implementarlo dentro de sus propios sistemas, de forma que lleven a cabo allí las tareas para las que han sido entrenadas. La facilidad de implantación de estos sistemas de inteligencia artificial en bases de datos o entornos propios de las empresas, creo que va a ser determinante para que se impongan.

Todo indica que las palabras transparencia, evaluación continua y explicabilidad van a ser los Temas de actualidad en la industria legal de la inteligencia artificial en 2024.

Joaquín Muñozsocio de Bird&Bird.



Source link

Related Articles

Ultimos Articulos