inteligencia artificial, UE, Ley europea IA
Las normas de la ley sobre sistemas de IA prohibidos, como los de reconocimiento facial, empezarán a aplicarse el próximo 2 de febrero.
28 enero 2025.- Varios grupos especialistas han alzado la voz de alarma por la falta de directrices de la Comisión Europea sobre los inminentes sistemas de inteligencia artificial (IA) prohibidos, a medida que se acerca la fecha -2 de febrero- en la que empezarán a aplicarse las disposiciones de la nueva legislación de IA que prohibirán determinadas herramientas.
La ley de IA de la UE asigna a las empresa que utilicen inteligencia artificial cuatro niveles de riesgo, lo que a su vez determina qué legislación se les aplicará. Los cuatro tipos son: sin riesgo, riesgo mínimo, riesgo alto y sistemas de IA prohibidos, siendo estos últimos los que preocupan a varios usuarios por su próxima entrada en vigor. Entre ellos se encuentran los que manipulan la toma de decisiones de un usuario o amplían las bases de datos de reconocimiento facial.
Las empresas tienen de plazo hasta mediados del año que viene para adaptar sus políticas a la mayoría de las disposiciones de la ley de IA de la UE, pero las prohibiciones mencionadas se aplicarán ya, a partir de la fecha señalada.
La Oficina de Inteligencia Artificial de la Comisión Europea, responsable de este asunto, asegura estar elaborando directrices para ayudar a los proveedores a cumplir la normativa a principios de 2025, tras una consulta sobre prácticas prohibidas que llevó a cabo el pasado noviembre. Sin embargo, esos documentos aún no se han publicado.
Ella Jakubowska, responsable de políticas del grupo de defensa de los derechos humanos EDRi, ha declarado que existen importantes lagunas y muchas preguntas abiertas en torno a la Oficina de Inteligencia Artificial
La ley de IA prevé prohibiciones para los sistemas considerados peligrosos por sus posibles efectos negativos en la sociedad. Sin embargo, también prevé algunas excepciones cuando el interés público supera sus potenciales riesgos. Caterina Rodelli, analista de políticas de la UE en la organización mundial de derechos humanos Access Now, se muestra escéptica ante estas excepciones: "Si una prohibición contiene excepciones, deja de ser una prohibición".
"Las excepciones", añade, "benefician principalmente a las autoridades policiales, permitiéndoles utilizar sistemas poco fiables y peligrosos como detectores de mentiras, aplicaciones predictivas o sistemas de elaboración de perfiles en los procedimientos migratorios", afirma Rodelli.
Jakubowska, de EDRi, tiene preocupaciones similares: "Algunas empresas y Gobiernos intenten aprovecharse para seguir desarrollando y desplegando sistemas de IA inaceptablemente dañinos". El tema fue muy debatido cuando se negoció la ley en los organismos comunitarios, y los legisladores pidieron prohibir los sistemas de reconocimiento facial.
La ley de Inteligencia Artificial tendrá alcance extraterritorial, lo que significa que las empresas que no tengan su sede en la UE podrán estar sujetas a sus disposiciones, que podrán sancionarse con multas de hasta el 7% de la facturación anual global. La mayoría de las disposiciones de la ley se aplicarán el próximo año, lo que permitirá afinar normasy orientaciones.
Mientras tanto, los Estados miembros tienen hasta agosto de este año para establecer las medidas en sus propios organismos reguladores, que se encargarán de supervisar la ley. Algunos países ya han iniciado los preparativos y han encargado la supervisión a organismos de protección de datos o de telecomunicaciones. "Parece que se trata de un espejismo, ya que en varios países se sabe poco o nada sobre las autoridades o los organismos que supervisarán las normas a nivel nacional", advierte Jakubowska.
COMENTARIOS