Estas respuestas sobre la ley europea sobre inteligencia artificial

Medios relacionados – Noticias recientes

Los sistemas y programas de inteligencia artificial (IA) son capaces de realizar tareas propias de la inteligencia humana, como el razonamiento, el aprendizaje (aprendizaje automático), luego comprender el lenguaje natural y resolver problemas. Ya estás presente en todos los ámbitos de nuestra vida, desde las aplicaciones de compra rutinarias o la visualización de vídeos hasta el desarrollo de nuevas fórmulas farmacéuticas o la organización de procesos de producción. Permite automatizar tareas, tomar decisiones, mejorar la eficiencia y aportar soluciones en campos tan diversos como la medicina, la industria, la robótica o los servicios financieros. La ley europea sobre IA comienza ahora a aplicarse de forma paulatina con el objetivo de garantizar su desarrollo con criterios éticos y legales. Estas son 10 respuestas a las palabras que dieron origen a una iniciativa pionera en el mundo:

¿Por qué Europa es la regla?

La inteligencia artificial aporta beneficios sociales, promueve el crecimiento económico y mejora la innovación y la competitividad. Estas aplicaciones, por lo general, provocan poco o nada que hacer. Pero otros pueden generar situaciones contrarias a derechos y libertades, como el uso de inteligencia artificial para generar imágenes pornográficas no deseadas o el uso de datos biométricos para clasificar a las personas según su apariencia o su aplicación en procesos contractuales, educativos, sanitarios o la implementación de políticas predictivas. .

¿Cuáles son las categorías de riesgo?

Resultado mínimo: la mayoría de los sistemas entran en esta categoría. Para estas aplicaciones, el proveedor, de forma voluntaria, puede adoptar los requisitos éticos y adherirse a los códigos de conducta. Si consideramos la IA de propósito general, entramos con una potencia de cálculo de 10²⁵ operaciones de coma flotante por segundo (FLOPS, por sus siglas en inglés). FLOPS es el medio de funcionamiento de un ordenador y la Comisión considera esta dimensión como la sombra de posibles riesgos sistémicos. La UE cree que ChatGPT-4, OpenAI y Gemini Google DeepMind pueden volver a la sombra y poder revisarse mediante un acto delegado.

Alto riesgo: Son modelos que potencialmente pueden afectar la seguridad de las personas o sus acompañantes. La lista está abierta a revisión permanente, pero la norma excluye áreas de aplicación incluidas en esta categoría, como las infraestructuras críticas de comunicaciones y administrativas, la formación, la gestión de personal o el acceso a servicios esenciales.

Son inadmisibles: los sistemas incluidos en esta categoría están prohibidos porque intentan eludir derechos fundamentales. En esta lista se encuentran la clasificación o puntuación social, lo que demuestra la vulnerabilidad de las personas y la identificación de raza, opinión, creencia, orientación sexual o reacción emocional. Se excluye el uso político para perseguir 16 delitos concretos relacionados con la desaparición de personas, secuestros, negociaciones y explotación sexual, prevención de daños a la vida o la seguridad o respuesta al peligro actual o previsible de un ataque terrorista. En caso de emergencia, será posible autorizar un uso excepcional, pero en caso contrario será necesario ignorar todos los datos e informaciones. En circunstancias que no sean urgentes, es necesario preceder a una evaluación de impacto previa desde la perspectiva de derechos fundamentales y notificarlo a la autoridad de vigilancia del mercado o de protección de datos correspondiente.

Soy específico sobre el material transparente: consultar los problemas de manipulación que se dan con burbujas de apariencia real (profundo) o con aplicaciones conversacionales. La norma obliga a dejar una forma inequívoca para que el usuario se encuentre ante una creación artificial o interactúe con una máquina.

Riesgo sistémico: La norma tiene en cuenta que el uso generalizado de sistemas de gran capacidad puede causar daños masivos o de gran alcance, como en el caso de la seguridad o la propagación de una bombilla o de la situación financiera.

¿Quieres entender la justicia en algún momento?

Todos los agentes, tanto públicos como privados, que utilicen sistemas de IA dentro de la UE deben ser respetados por la ley, tanto europea como europea. Afectan a los proveedores del programa, a los usuarios que los aplican y los adquieren aquí. Todo el mundo debe utilizar el velo porque su sistema es seguro y respeta la ley. En el caso de sistemas de alto riesgo, antes y después de su comercialización o puesta en servicio, los sistemas deberán someterse a una evaluación de conformidad para garantizar la calidad de los datos, la trazabilidad, la transparencia, la supervisión humana, la precisión, la seguridad de la tecnología de la información y la solidez. Esta evaluación deberá repetirse si el sistema o sus propósitos cambian sustancialmente. Los sistemas de IA de alto riesgo utilizados por autoridades o entidades que actúan en su nombre también deben registrarse en una base de datos pública de la UE, a menos que estos sistemas tengan efectos políticos y migratorios. Los proveedores de modelos con riesgos sistémicos (ciberpotencia superior a 10²⁵ FLOPS) tienen la obligación de evaluarlos y mitigarlos, notificar incidentes graves, realizar pruebas y evaluaciones avanzadas, garantizar la ciberseguridad y facilitar información sobre los modelos de consumo eléctrico.

¿Qué se debe incluir en una evaluación de contribución?

Los procesos, el período y frecuencia de uso, las categorías de personas físicas y colectivas afectadas, los riesgos específicos, las medidas de supervisión humana y el plan de implementación en caso de materialización de los riesgos.

¿Cómo sabes cómo experimentar los efectos de tu producto?

Las grandes empresas ya cuentan con sistemas adecuados para adaptarse a la norma. Para aquellos que son jóvenes y utilizan sistemas de código abierto, la ley crea espacios controlados para pruebas y ensayos en condiciones reales, que brindan un ambiente controlado para experimentar con tecnologías innovadoras durante seis meses que pueden ampliarse a otros. Puede estar sujeto a inspección.

¿Están estos exentos?

Los proveedores de planta libre y código abierto están llenos de obligaciones relacionadas con la comercialización, pero no evitan riesgos. Afecta negativamente a la norma relativa a la investigación, el desarrollo y la creación de prototipos o actividades de desarrollo destinadas a usos de defensa o seguridad nacional. Los sistemas de IA de uso general deben cumplir requisitos de transparencia, como desarrollar documentación técnica, cumplir con la legislación de derechos de autor de la UE y difundir planes de estudio detallados sobre el contenido utilizado para aprender el sistema.

¿Esperas la altura?

Ha creado una Oficina Europea de Inteligencia Artificial, un Consejo Científico y autoridades nacionales de supervisión para el seguimiento de los sistemas y la autorización de aplicaciones. Las agencias y oficinas de AI deben tener acceso a la información necesaria para cumplir con sus obligaciones.

¿Cuándo será plenamente aplicable la Ley de IA?

Tras su adopción, la Ley de IA entrará en vigor dentro de los 20 días siguientes a su publicación y será plenamente aplicable en 24 meses, de forma escalonada. En los primeros seis meses, los estados miembros deben eliminar los sistemas prohibidos. En un año, se impondrán mandatos gubernamentales para la IA de uso general. En dos años, todos los sistemas tendrán que adaptarse.

¿Cuáles son las sanciones por infracciones?

Cuando se comercialicen o utilicen sistemas de inteligencia artificial que no cumplan los requisitos del Reglamento, los Estados miembros deben establecer sanciones efectivas, proporcionales y disuasorias para las infracciones y notificarlas a la Comisión. Muchos si les impiden hasta 35 millones de euros o el 7% del volumen de negociación anual a escala global del ejercicio anterior, hasta 15 millones de euros o el 3% del volumen de negociación y hasta 7,5 millones de euros o el 1,5% del volumen de comercio. . En cada categoría de infracción, el seguimiento será el menos importante para las pirámides y el más alto para otras empresas.

¿Qué se puede hacer con la víctima de una infracción?

La Ley de IA ha previsto el derecho a presentar una denuncia ante una autoridad nacional y facilitar que las personas puedan reclamar una indemnización por daños causados ​​por sistemas de inteligencia artificial de alto riesgo.

También te puede interesar – Medios digitales