www.diariocritico.com
Chat GPT e inteligencia artificial
Ampliar
Chat GPT e inteligencia artificial (Foto: Unsplash/mojahid-mottakin)

Europa alcanza un pionero e histórico acuerdo para legislar el uso y explotación de la inteligencia artificial

sábado 09 de diciembre de 2023, 10:38h

La Comisión Europa ha anunciado un acuerdo político alcanzado entre el Parlamento Europeo y el Consejo de la UE para crear la Ley de Inteligencia Artificial (Ley AI), ya propuesta por la Comisión en abril de 2021.

La presidenta de la Comisión, Ursula von der Leyen, explicó tras el acuerdo: "La inteligencia artificial ya está cambiando nuestra vida cotidiana. Y esto es sólo el principio. Si se utiliza de manera inteligente y amplia, la IA promete enormes beneficios para nuestra economía y sociedad".

"La Ley de IA de la UE es el primer marco jurídico integral sobre inteligencia artificial en todo el mundo", presumió, añadiendo que "es un momento histórico". La ley, aseguró, se moverá entre los "valores europeos" a una "nueva era" para regular "en riesgos identificables" el uso de las IA.

El enfoque hacia una IA fiable

Inteligencia ArtificialLas nuevas normas se aplicarán directamente de la misma manera en todos los Estados miembros, sobre la base de una definición de IA preparada para el futuro.

Siguen un enfoque basado en el riesgo:

Riesgo mínimo: la gran mayoría de los sistemas de IA entran en la categoría de riesgo mínimo. Las aplicaciones de riesgo mínimo, como los sistemas de recomendación basados ​​en IA o los filtros de spam, se beneficiarán de un pase libre y de la ausencia de obligaciones, ya que estos sistemas presentan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos. No obstante, de forma voluntaria, las empresas pueden comprometerse a adoptar códigos de conducta adicionales para estos sistemas de IA.

Alto riesgo: los sistemas de IA identificados como de alto riesgo deberán cumplir con requisitos estrictos, incluidos sistemas de mitigación de riesgos, alta calidad de conjuntos de datos, registro de actividad, documentación detallada, información clara del usuario, supervisión humana y un alto nivel. de robustez, precisión y ciberseguridad. Los entornos de pruebas regulatorios facilitarán la innovación responsable y el desarrollo de sistemas de IA compatibles. Ejemplos de sistemas de IA de alto riesgo incluyen ciertas infraestructuras críticas, por ejemplo en los campos del agua, el gas y la electricidad; dispositivos médicos; sistemas para determinar el acceso a instituciones educativas o para reclutar personas; o determinados sistemas utilizados en los ámbitos de la aplicación de la ley, el control de fronteras, la administración de justicia y los procesos democráticos. Además, los sistemas biométricos de identificación, categorización y reconocimiento de emociones también se consideran de alto riesgo.

Riesgo inaceptable: se prohibirán los sistemas de IA que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto incluye sistemas o aplicaciones de inteligencia artificial que manipulan el comportamiento humano para eludir el libre albedrío de los usuarios, como juguetes que utilizan asistencia de voz para fomentar comportamientos peligrosos de menores o sistemas que permiten la "puntuación social" por parte de gobiernos o empresas, y ciertas aplicaciones de vigilancia policial predictiva. Además, se prohibirán algunos usos de los sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar personas o identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con excepciones limitadas).

Riesgo de transparencia específico: al emplear sistemas de inteligencia artificial como los chatbots, los usuarios deben ser conscientes de que están interactuando con una máquina. Los deepfakes y otros contenidos generados por IA deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que el contenido sintético de audio, vídeo, texto e imágenes esté marcado en un formato legible por máquina y detectable como generado o manipulado artificialmente.

Las empresas que no cumplan las normas serán multadas.

Próximos pasos

Inteligencia ArtificialEl acuerdo político está ahora sujeto a la aprobación formal del Parlamento Europeo y del Consejo.

Una vez que se adopte la Ley de IA, habrá un período de transición antes de que el Reglamento sea aplicable. Para salvar este tiempo, la Comisión lanzará un Pacto sobre IA y convocará a desarrolladores de IA de Europa y de todo el mundo que se comprometan de forma voluntaria a implementar las obligaciones clave de la Ley de IA antes de los plazos legales.

Para promover normas sobre una IA fiable a nivel internacional, la Unión Europea seguirá trabajando en foros como el G7, la OCDE, el Consejo de Europa, el G20 y las Naciones Unidas.

Si quieres recibir más temas como éste, puedes suscribirte a nuestras alertas gratuitas de noticias de Whatsapp o Telegram. También tenemos un boletín gratuito de noticias que llegarán a tu e-mail. Además, estamos en las redes sociales más conocidas: Facebook, Instagram, TikTok y X (Twitter).

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios