La política de la UE quiere introducir tres categorías de riesgo para la IA

| |

Un grupo de políticos de la UE propone tres categorías de riesgo para las aplicaciones de IA.

La IA hace tiempo que llegó a la vida cotidiana, en su mayoría desapercibida para los usuarios, escondida en el software que usan en su teléfono inteligente, en el motor de búsqueda o en la aspiradora doméstica autónoma.

Publicación Destacada

Pero, ¿cómo tratamos las decisiones y el contenido de la IA y los datos que (deben) recopilarse y procesarse cuando se utiliza el software de IA? Los políticos de los EE. UU. y Europa aún no han proporcionado reglas completas y uniformes para esto.

La autorregulación no es suficiente

Por lo tanto, muchas empresas tecnológicas particularmente destacadas con aplicaciones emblemáticas se regulan a sí mismas. Google, por ejemplo, actualmente no publica potentes sistemas de IA como Parti (generación de imágenes) o LaMDA (diálogos) porque existe el riesgo de que los sistemas produzcan contenido moralmente cuestionable o incluso violar la ley.

OpenAI, por ejemplo, solo lanzó DALL-E 2 después de haber tomado suficientes precauciones de seguridad contra la generación de contenido crítico. Sin embargo, estas precauciones de seguridad a veces son controvertidas porque limitan las posibilidades técnicas de los sistemas y, por lo tanto, restringen la libertad creativa. A DALL-E 2, por ejemplo, solo se le ha permitido generar caras durante unas pocas semanas.

El ejemplo de Clearview muestra que la política no puede depender de esta autorregulación: el sistema basado en IA de la empresa teóricamente permite la vigilancia masiva utilizando datos faciales tomados de Internet y se usa internacionalmente, a veces ilegalmente. A pesar de muchos vientos en contra y amenazas de multas millonarias por parte de los oficiales de protección de datos de la UE, a Clearview le gustaría continuar afirmando sus propios intereses económicos. En el mejor de los casos, la conciencia del riesgo es fingida.

Además, las capacidades de la IA a veces se juzgan mal, por ejemplo, para el reconocimiento de emociones, o se sobrestiman, por ejemplo, la confiabilidad y precisión de incluso sistemas relativamente probados y comprobados, como el reconocimiento facial, cuando se usan a gran escala.

Tres categorías de riesgo para la inteligencia artificial

La «Ley de Inteligencia Artificial» de un grupo de políticos de la UE quiere aplicaciones de IA en el futuro tres categorías de riesgo organizar. Con base en estas categorías, se puede prohibir directamente una aplicación o aplicar reclamos de información y transparencia, así como leyes aún por desarrollar.

La política de la UE quiere introducir tres categorías de riesgo para la IA

como riesgo inaceptable el grupo de la UE ve el monitoreo de IA para sistemas de puntuación social como los que se usan en China, o aplicaciones que generalmente violan los valores de la UE. Estos sistemas están prohibidos.

La política de la UE quiere introducir tres categorías de riesgo para la IA

aplicaciones con alto riesgo son, por ejemplo, herramientas de visión artificial diseñadas para identificar si un candidato es apto para un puesto de trabajo. Debe haber leyes separadas para tales sistemas. La lista de posibles aplicaciones de alto riesgo aún está en progreso.

aplicaciones con riesgo mínimo o nulo van a permanecer “en gran parte sin regular”. Todas estas son aplicaciones que no entran en las categorías de riesgo alto o inaceptable. El grupo de la UE asume que «la mayoría de las aplicaciones de IA» no caerán en la categoría de alto riesgo.

La ley de IA de la UE podría entrar en vigor a finales de 2024.

Lina
Lina García ha escrito sobre tecnología y marketing, cubriendo todo, desde la analítica hasta la realidad virtual, desde 2010. Antes de eso, obtuvo un doctorado en inglés, enseñó a escribir a nivel universitario y lanzó y publicó una revista en formato impreso y digital. Ahora es escritora, editora y consultora de marketing a tiempo completo.