Imagen de cabecera noticias

Regulación de la inteligencia artificial

16 Octubre 2024
Mano robótica sujetando IA

Como no puede ser de otra manera, la “norma” siempre “va por detrás” de la sociedad, la ciencia o la investigación. En este sentido, estamos asistiendo en estos últimos tiempos a la irrupción de un nuevo fenómeno que se proyecta en infinidad de escenarios: la Inteligencia Artificial (en adelante, la IA). Lo que hasta el momento parecía ser únicamente una buen argumento para una película futurista de ciencia ficción se nos plantea, a partir de la popularización de determinadas de sus utilidades (por ejemplo, el ChatGPT) como una realidad tangible que ha empezado a generar no pocas dudas e inquietudes (riesgos de manipulación de la realidad, pérdida de la privacidad de las personas, desaparición de profesiones y puestos de trabajo o, incluso riesgos evidentes para la continuidad de determinados sectores o empresas).

Diferentes entidades nacionales y supranacionales empezaron ya a avanzar en el intento de regular la actividad relacionada con esta nueva tecnología y en concreto, el Parlamento Europeo ya propuso en abril de 2021 abordar un marco normativo en este ámbito. Ya en el 2024, el pasado 12 de julio se publicó el llamado Reglamento de Inteligencia Artificial que entrará en vigor, con carácter general, el 2 de agosto de 2026.

Se entiende por Sistema de Inteligencia Artificial todo aquel que opera con elementos de autonomía y que, basándose en datos y entradas obtenidos de humanos o máquinas, infiere cómo alcanzar unos objetivos propuestos, usando para ello técnicas basadas en el aprendizaje-máquina o en la lógica y el conocimiento, y genera como salida contenidos, predicciones, recomendaciones o decisiones que influyen en el entorno con el que el sistema interactúa.

El Reglamento clasifica los sistemas de Inteligencia Artificial en función del riesgo que puedan generar:

• Riesgo Inaceptable. Se prohibirán sistemas de IA que representen un riesgo para las personas como, por ejemplo:

  • Manipulación cognitiva del comportamiento.
  • Clasificación social de personas.
  • Sistemas de identificación biométrica en tiempo real.
  • Puntuación social con fines públicos y privados.
  • Uso de técnicas subliminales.
  • Aprovechamiento de los puntos vulnerables de las personas.
  • Reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas.

• Riesgo alto. Serán evaluados, antes de su comercialización y durante su ciclo de vida, los siguientes sistemas de IA:

  • Los que se utilicen en productos sujetos a legislación sobre seguridad de productos (por ejemplo, juguetes, aviación, automóviles, dispositivos médicos o ascensores).
  • Los referentes a las Administraciones Públicas, a políticas sociales o de extranjería, a los seguros de vida y salud, a la clasificación crediticia de personas físicas y a la selección, promoción o desvinculación de empleados.

• Riesgo Limitado. El resto de sistemas no contemplados en los dos niveles anteriores podrán desarrollarse conforme a sencillos criterios de transparencia que permitan al usuario saber que interactúa con una máquina y que le permitan decidir si utilizar la aplicación y su contenido o no.

Por último, el Reglamento menciona a aquellos que pudieran generar riesgos sistémicos, como los modelos generativos de inteligencia artificial (generación de contenidos a partir de información previa y premisas marcadas por el usuario). En este caso, deberán cumplir con obligaciones adicionales de evaluación y mitigación del riesgo, de comunicación en caso de incidentes, y de protección de la ciberseguridad, pudiendo los proveedores de estos sistemas acudir también a códigos de buenas prácticas para demostrar el cumplimiento de estas obligaciones.

Finalmente, y con el fin de supervisar los modelos existentes se ha creado la Oficina Europea de Inteligencia Artificial y se ha requerido a los Estados miembros a dotarse de estructuras propias de supervisión (en España ya se aprobó en el año 2023 el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial) y a generar entornos controlados de pruebas (Sandobox) para ensayar la aplicación de los requisitos previstos en la normativa (en España, se aprobó el primer entorno mediante el Real Decreto 817/2023).

Definitivamente, los sistemas de inteligencia artificial son y serán uno de los principales motores de la renovación social, tecnológica y empresarial que van a suponer cambios muy profundos a los que deberemos estar especialmente atentos.

Noticias Relacionadas

19 Noviembre 2024
A pesar de que la evolución de la normativa de prevención laboral avanza y debería llevarnos a una actividad productiva cada día más segura, analizando las gráficas de accidentes...
12 Noviembre 2024
Es evidente que la sociedad está permanentemente evolucionando y con cada cambio se producen beneficios, pero también contraindicaciones.
31 Octubre 2024
Si en el segundo trimestre era el BCE quien iniciaba sus bajadas de tipos de interés ocho años después, el 18 de septiembre fue la FED quien comenzaba los recortes, la primera desd