¿Cómo viven los vivos con los muertos? Hasta que el capitalismo deshumanizó a la sociedad, todos los vivos esperaban la experiencia de la muerte. Era su futuro final. Los vivos eran en sí mismo incompletos. De esa forma vivos y muertos eran interdependientes. Siempre. Sólo una forma de egotismo extraordinariamente moderna rompió esa interdependencia. Con consecuencias desastrosas para los vivos, ahora pensamos en los muertos en términos de los eliminados.
Milton J. Meza Rivas
Luces y sombras del acuerdo europeo sobre la regulación de la inteligencia artificial
El pasado 8 de diciembre, en el marco de las conversaciones interinstitucionales (trílogos) entabladas por la Comisión de la Unión Europea (UE) en 2022, el Parlamento y la presidencia del Consejo llegaron a un acuerdo político sobre la redacción definitiva de una propuesta de normas y acciones para el logro de la excelencia y la fiabilidad en torno a la inteligencia artificial (IA)[1]. Se trata de un hito histórico producto de complejas e intensas sesiones de negociación llevadas a cabo en el seno de la UE[2]. Sin embargo, el acuerdo no representa en sí mismo la aprobación de un Reglamento europeo sobre la IA. En realidad, para llegar a ello se deben cumplir antes los siguientes pasos:
a) Que se lleve a cabo una revisión técnica del texto por parte de juristas y lingüistas especializados en el área, quienes deberán redactar y ajustar la versión final de la proposición conforme al vocabulario propio del Derecho de la UE y sus fuentes[3];
b) Esta versión final deberá ser puesta después a disposición de la comisión competente y publicada de acuerdo con lo establecido en el art. 74 ap. 4 del Reglamento interno del Parlamento Europeo[4]; y
c) Finalmente, la versión habrá de ser sometida a consideración y votación del Pleno a mediados–finales de enero de 2024. Una vez acordado el texto definitivo deberá ser adoptado por el Parlamento Europeo y el Consejo, pasando a convertirse en ese momento parte de la legislación de la UE, cuya entrada en vigor comenzará a los 20 días siguientes de su publicación en el Diario Oficial de la UE. Ahora bien, la aplicación directa de esta reglamentación solo será posible 2 años después de su entrada en vigor (período de transición), salvo algunas disposiciones específicas como, por ejemplo, aquellas relacionadas con los sistemas de IA prohibidos (aplicables a los 6 meses) y los sistemas de IA de propósito general (aplicables a los 12 meses)[5].
Completado este proceso de tramitación legislativa, la UE deberá hacer frente a otro gran desafío: poner en marcha un pacto por la IA. Para ello, la Comisión tendrá que convocar a los desarrolladores de IA de todo el mundo para que, durante el período de transición legislativa, se comprometan voluntariamente a aplicar las obligaciones contenidas en dicho texto legal. Se trata, por tanto, de un objetivo ambicioso, necesario y difícil de alcanzar, máxime cuando muchas empresas de tecnologías, aunque han pedido públicamente a los legisladores europeos que regulen la IA, en privado —a través de su amplio poder de cabildeo— se han resistido ferozmente a cualquier forma de regulación oficial de los modelos básicos de desarrollo de la IA, siendo partidarias —en su defecto— de la aplicación de principios “éticos” y de la autorregulación por medio de códigos de conducta[6]. Quedará por ver hasta dónde avanzará todo esto.
Aspectos clave de la propuesta de Reglamento de la IA acordada en la UE
Mientras todo el panorama anterior se va consolidando, la cuestión clave —por ahora— es comprender los términos de la propuesta de la redacción definitiva establecida en el acuerdo entre el Parlamento y la presidencia del Consejo sobre las normas y acciones para el logro de la excelencia y fiabilidad en la IA. Por lo tanto, atendiendo a la información que han hecho pública las instituciones de la UE, vale la pena destacar lo siguiente:
El acuerdo político alcanzado pone de manifiesto su compromiso de avanzar en la redacción de un proyecto de Reglamento que tenga como objetivo garantizar, por un lado, que la IA en Europa sea segura, respete los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad ambiental y, por otro, que las empresas puedan prosperar y expandirse en las áreas de la investigación, el desarrollo y la innovación de la IA[7]. A tal efecto, el acuerdo parte:
- Propone una definición de los sistemas de IA ajustada al enfoque propuesto por la Organización para la Cooperación y el Desarrollo Económico (OCDE), de manera tal que se pueda distinguir la IA de los sistemas de software más simples. Así, el texto sugerido reduce la definición a sistemas desarrollados mediante enfoques de aprendizaje automático y enfoques basados en la lógica y el conocimiento[8]; y
- Aclara que el futuro Reglamento de la UE sobre IA:
- No se aplicará a ámbitos ajenos a la legislación de la Unión[9];
- No afectará a las competencias de los Estados miembros de la UE en materia de seguridad nacional, ni a ninguna institución que tenga encomendadas tareas en este ámbito; y
- No será aplicable a los sistemas diseñados y utilizados con fines militares o de defensa.
A partir de este marco legal de trabajo, el acuerdo propone reglas que establecen obligaciones para los proveedores de IA y regulan la autorización de los sistemas de IA en el mercado único de la UE, teniendo en cuenta para ello los riesgos potenciales (mínimos o nulos, limitados, altos e inaceptables) y niveles de impacto de esta tecnología[10]. Así, el texto introduce reglas concretas para los modelos de base, cimentación o fundacionales, dado que son sistemas capaces de realizar de manera competente una amplia gama de tareas distintivas, como —por ejemplo— generar vídeos, texto, imágenes, conversar en lenguaje lateral o generar códigos informáticos. También plantea reglas específicas para los modelos de IA de propósito general que garantizarían la transparencia a lo largo de la cadena de valor[11]. Para los modelos muy potentes que podrían plantear riesgos sistémicos (en especial aquellos que son producto de los grandes modelos de IA generativa), el Reglamento establecería obligaciones vinculantes adicionales relacionadas con la gestión de riesgos y el seguimiento de incidentes graves, la realización de evaluaciones de los modelos y pruebas adversas. Estas obligaciones se harían operativas mediante códigos de prácticas elaborados por la Comisión junto con la industria, la comunidad científica, la sociedad civil y otros grupos de interés[12].
En términos de gobernanza, el acuerdo reconoce que las autoridades nacionales competentes en la vigilancia del mercado son las que deben supervisar la implementación de las nuevas normas europeas sobre IA a nivel nacional. Ahora bien, a nivel comunitario[13]:
- Promueve la creación de una nueva Oficina Europea de IA dentro de la Comisión que garantizaría la coordinación a nivel europeo y también supervisaría la implementación y el cumplimiento de las nuevas normas sobre modelos de IA de propósito general[14];
- Mantiene la Junta de IA, compuesta por representantes de los Estados miembros de la UE, como una plataforma más de coordinación y un órgano asesor de la Comisión en la implementación del Reglamento (incluido el diseño de códigos de prácticas para modelos de base, cimentación o fundacionales);
- Propone la creación de un panel científico de expertos independientes, el cual desempeñará un papel central al emitir alertas sobre riesgos sistémicos y contribuirá a clasificar y probar los modelos de propósito general; y
- Apuesta por la creación de un foro consultivo para los grupos de interés en temas de IA (los cuales se extienden a representantes de la industria, las pymes, las empresas emergentes, la sociedad civil y el mundo académico) para proporcionar conocimientos técnicos a la Junta de IA.
Al mismo tiempo, el acuerdo reconoce la amenaza potencial que plantean determinadas aplicaciones de la IA para los derechos de los ciudadanos y la democracia, por lo que su contenido prohíbe:
- Los sistemas de categorización biométrica que utilizan características o datos sensibles (por ejemplo, de creencias políticas, religiosas, filosóficas, orientación sexual, raza, entre otros);
- La extracción, el arrastre o la recolección no dirigida de imágenes faciales de Internet o de circuitos cerrados de videovigilancia/vigilancia para crear bases de datos de reconocimiento facial;
- El reconocimiento de emociones en el lugar de trabajo y las instituciones educativas;
- La puntuación social basada en el comportamiento humano y/o las características personales de los individuos en la sociedad;
- Los sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío; y
- La IA que suela explotar las vulnerabilidades de las personas (por su edad, discapacidad, situación social o económica, por ejemplo).
A la par de todo esto, los negociadores acordaron una serie de salvaguardas y excepciones muy concretas para el uso de sistemas de identificación biométrica en espacios de acceso público con fines policiales, acotando esta utilización a una lista de delitos rigurosamente definidos y sometiéndola luego a una autorización judicial previa correspondiente. Por su parte, los sistemas de identificación biométrica remota “posterior”[15] se usarían estrictamente para la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave, y cuando se trate de sistemas de este tipo —pero, en lugar de “posterior”, en “tiempo real”— deberán cumplir con condiciones precisas y su uso estaría limitado en el tiempo y espacio y solo podrían ser empleados para los siguientes fines:
- Búsquedas selectivas de víctimas (de secuestro, trata, explotación sexual);
- Prevención de una amenaza terrorista específica y presente; y/o
- La localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el futuro Reglamento (por ejemplo, terrorismo, trata y explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal, delitos medioambientales, entre otros).
Con relación a los sistemas de IA de “alto riesgo” (clasificados así en atención a su daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho), los eurodiputados lograron incluir en el acuerdo una obligación dirigida a los implementadores (que sean organismos de Derecho público u operadores privados que presten servicios públicos) y los operadores de estos sistemas según la cual han de hacer una evaluación del impacto real que dicha tecnología pueda tener sobre los derechos fundamentales, para luego notificar los resultados a la autoridad nacional correspondiente. Al mismo tiempo, aseguraron el reconocimiento del derecho de todos los ciudadanos a presentar quejas sobre los sistemas de IA y recibir explicaciones respecto de aquellas decisiones basadas en ellos que afecten a sus derechos fundamentales.
Sobre los sistemas generales de IA, dada la rápida expansión de sus capacidades, el acuerdo establece que estos sistemas tendrán que cumplir con una serie de requisitos de transparencia que pasan, por ejemplo, por la elaboración de documentación técnica, el establecimiento de mecanismos o barandillas para el cumplimiento de la legislación europea y la difusión de resúmenes detallados sobre el contenido utilizado para su entreno (sobre todo con datos masivos). Ahora bien, en relación con aquellos sistemas de IA de propósito general que son de alto impacto y riesgo sistémico, los negociadores parlamentarios lograron asegurar obligaciones mucho más estrictas que incluyen, entre otras, reportar a la Comisión sobre los incidentes graves, garantizar la ciberseguridad e informar sobre la eficiencia energética de tales sistemas.
Finalmente, el acuerdo político propone que el incumplimiento de las normas reglamentarias y acciones para el logro de la excelencia y fiabilidad en la IA en el marco de la UE dé lugar a multas que van desde 35 millones de euros o el 7% del volumen de negocios global del infractor hasta 7,5 millones o el 1,5% del volumen de sus negocios, dependiendo de la infracción y el tamaño de la empresa en sí.
Reflexiones finales
El acuerdo político al que llegaron el Parlamento y la presidencia del Consejo, en el marco de los trílogos entablados por la Comisión de la UE, representa un avance importante en la regulación internacional de la IA[16]. Al mismo tiempo, ofrece una ventana de oportunidad para que la UE, como organización internacional, demuestre su liderazgo global en la materia, adoptando una regulación sólida en el marco de la Unión que proteja los derechos fundamentales y mitigue los múltiples riesgos producto de la IA, pero sin que ello se traduzca después en una reglamentación estricta que frene cualquier innovación tecnológica que, más adelante, pueda resultar beneficiosa para la humanidad.
Mientras tanto, las reglas propuestas en el acuerdo alcanzado en la UE proporcionan un marco constructivo y alentador que reconoce las oportunidades y los riesgos que plantea la IA y, bajo esta premisa, sugiere el establecimiento de barreras de seguridad incardinadas en políticas públicas que tienen como propósito promover una IA responsable.
Sin embargo, el gran desafío que deberá enfrentar la UE a partir de 2024 es ver cómo llevar al terreno del diálogo y la negociación constructivos a todas aquellas empresas líderes en la inversión, el diseño y la innovación de los modelos de desarrollo de la IA. Probablemente el primer paso para lograrlo sea a través de la puesta en marcha y consolidación de un pacto por la IA, pero ello —en sí mismo— no será fácil. Además, bajo el paraguas de ese pacto por la IA el Consejo deberá trabajar también en establecer mecanismos de evaluación eficaces que mejoren la calidad de los datos y permitan adquirir herramientas más avanzadas en la gestión de sesgos, aunque ello suponga un aumento exponencial de los costos operativos de las empresas líderes en el ramo del desarrollo de las ciencias de la computación[17].
A pesar de todo este panorama, merece la pena rescatar un aspecto clave del acuerdo alcanzado en Bruselas: la reglamentación allí propuesta no solo pretende mitigar los peligros de las funciones específicas de la IA con respecto a su nivel de riesgo, sino que expande su regulación a los modelos de base, cimentación o fundacionales que, por su naturaleza, sustentan los sistemas de IA de propósito general (como ChatGPT y el chatbot Bard de Google, por ejemplo) que, en los últimos años, han tenido una amplia repercusión mediática en cuanto a los altos niveles de riesgos y beneficios que dichos sistemas prometen. Esto, por elemental que parezca, resulta un aspecto positivo del acuerdo, ya que arroja indicios de cómo los negociadores europeos van entendiendo cada vez más el porqué los modelos de base, cimentación o fundacionales, construidos por un puñado de grandes empresas tecnológicas y que aparentemente no son de alto riesgo, ameritan una regulación oficial concreta que, al menos, promueva su utilización responsable y, por tanto, evite su uso para la desinformación y manipulación en línea, los ciberataques o la creación de armas biológicas, por ejemplo[18].
Además de lo anterior, con relación a los sistemas de identificación biométrica, resulta importante destacar lo siguiente: desde el inicio de las maratónicas negociaciones interinstitucionales entre la Comisión de la UE, el Parlamento y el Consejo, los europarlamentarios abogaron por una prohibición total del uso público del escaneo facial y otros sistemas de reconocimiento e identificación biométrica remota, argumentando que dichos sistemas plantean preocupaciones importantes relacionadas con el derecho a la privacidad de las personas[19].
Sin embargo, los representantes del Consejo lograron negociar exenciones para que las fuerzas del orden público de los Estados miembros de la Unión pudieran utilizar este tipo de tecnologías con fines policiales, sobre todo a la hora de garantizar la seguridad de todos. Dichas exenciones, a pesar de ser criticadas por sectores de la sociedad civil, son —en principio— coherentes a la luz de la legislación de la UE. Pese a ello, hubiera sido importante que las partes negociadoras aprovechasen los trílogos en Bruselas para incluir en la propuesta reglamentaria europea mecanismos claros y específicos para la protección de los derechos fundamentales y el espacio cívico de todos frente a los sistemas de IA utilizados en el control de migración y fronteras, así como también —por ejemplo— establecer prohibiciones o salvaguardas concretas para que sus desarrolladores no diseñen estos sistemas de manera tal que pudiesen ser clasificados como sistemas de alto riesgo[20].
Por último, sobre la gobernanza de la IA incluida en el acuerdo de la UE, es clave que los términos en que ha sido planteada permitan que las dinámicas internas de la Unión sean realmente ágiles, porque solo así la labor de la organización podrá —en cierta medida— seguir el ritmo de la velocidad de la innovación tecnológica. A tal efecto, sería importante que las instituciones de la Unión enfoquen el desarrollo de esa gobernanza hacia el intercambio de los conocimientos, la gestión de los efectos extraterritoriales de la IA y la garantía de que los beneficios de esa tecnología sean compartidos a lo largo de la sociedad internacional, evitando —sobre todo— los oligopolios extremos en el mercado de la IA[21].
En todo caso, el trabajo a nivel técnico en las próximas semanas será clave para que las partes negociadoras aborden las cuestiones que sigan pendientes y aclaren cualquier otro aspecto de carácter político. El resultado final de esta etapa será fundamental para encausar el camino que habrá de transitar la UE para, finalmente, convertirse en un líder mundial en la regulación internacional que promueva la excelencia, transparencia, responsabilidad y fiabilidad de la IA.
Referencias
Amnesty International (2023, 27 de noviembre). EU: France, Germany and Italy risk unravelling landmark AI Act negotiations. Amnesty. https://www.amnesty.org/en/latest/news/2023/11/eu-france-germany-and-italy-risk-unravelling-landmark-ai-act-negotiations/.
Amnesty International (2023, 09 de diciembre). EU: Bloc’s decision to not ban public mass surveillance in AI Act sets a devastating global precedent. Amnesty. https://www.amnesty.org/en/latest/news/2023/12/eu-blocs-decision-to-not-ban-public-mass-surveillance-in-ai-act-sets-a-devastating-global-precedent/.
Chan, K. (2023, 09 de diciembre). Europe reaches a deal on the world’s first comprehensive AI rules. AP. https://apnews.com/article/ai-act-europe-regulation-59466a4d8fd3597b04542ef25831322c.
Corporate Europe Observatory. (2023, 17 de noviembre). Byte by byte. How Big Tech undermined the AI Act. Corporate Europe Observatory. https://corporateeurope.org/en/2023/11/byte-byte.
Corporate Europe Observatory. (2023, 08 de diciembre). Lobbying power of Amazon, Google and Co. continues to grow. Corporate Europe Observatory. https://corporateeurope.org/en/2023/09/lobbying-power-amazon-google-and-co-continues-grow.
Dobberstein, L. (2023, 11 de diciembre). Trust us, says EU, our AI Act will make AI trustworthy by banning the nasty ones. The Register. https://www.theregister.com/AMP/2023/12/11/eu_agrees_ai_act/.
Fernández, C. (2023, 15 de diciembre). Reglamento de IA: las partes negocian el contenido técnico del acuerdo político alcanzado. Diariolaley. https://diariolaley.laleynext.es/dll/2023/12/18/reglamento-de-ia-las-partes-negocian-el-contenido-tecnico-del-acuerdo-politico-alcanzado.
Eguiluz, J. (2023, 15 de diciembre). Cinco aclaraciones necesarias sobre el Reglamento de IA (con un prólogo para tecnólogos y un epílogo para optimistas). Diariolaley. https://diariolaley.laleynext.es/dll/2023/12/15/cinco-aclaraciones-necesarias-sobre-el-reglamento-de-ia-con-un-prologo-para-tecnologos-y-un-epilogo-para-optimistas.
European Commission. (2021). Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence. Bruselas. https://ec.europa.eu/commission/presscorner/detail/en/IP_21_1682.
European Commission. (2023). Commission welcomes political agreement on Artificial Intelligence Act. Bruselas. https://ec.europa.eu/commission/presscorner/detail/en/IP_23_6473.
European Commission. (2023, 12 de diciembre). Artificial Intelligence – Questions and Answers. Bruselas. https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683.
European Council. (2023). Timeline – Artificial intelligence. Bruselas. https://www.consilium.europa.eu/en/policies/artificial-intelligence/.
European Council. (2023, 6 de diciembre). Artificial Intelligence Act: Council calls for promoting safe AI that respects fundamental rights. Bruselas. https://www.consilium.europa.eu/en/press/press-releases/2022/12/06/artificial-intelligence-act-council-calls-for-promoting-safe-ai-that-respects-fundamental-rights/.
European Council. (2023, 9 de diciembre). Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world. Bruselas. https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/.
European Parliament. (2023, 09 de diciembre). Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI – Press Releases. Europarl.europa. https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai.
Hartmann, T. (2023, 06 de diciembre). AI Act: Building agile governance that keeps up with innovation speed. Euractiv. https://www.euractiv.com/section/digital/news/ai-act-building-agile-governance-that-keeps-up-with-innovation-speed/.
Klepper, D. (2023, 28 de noviembre). Fake babies, real horror: Deepfakes from the Gaza war increase fears about AI’s power to mislead. AP. https://apnews.com/article/artificial-intelligence-hamas-israel-misinformation-ai-gaza-a1bb303b637ffbbb9cbc3aa1e000db47.
Liboreiro, J. (2023, 01 de diciembre). Marathon talks in Brussels fail to reach deal on EU AI Act. But Friday offers new chance. Euronews. https://www.euronews.com/my-europe/2023/12/07/marathon-eu-talks-fail-to-reach-deal-on-artificial-intelligence-act-but-friday-offers-new-.
Nardelli, A. y Deutsch, J. (2023, 18 de octubre). EU Plans Stricter Rules for Most Powerful Generative AI Models. Bloomberg. https://www.bloomberg.com/news/articles/2023-10-18/eu-plans-stricter-rules-for-most-powerful-generative-ai-models.
Ponce, A. (2023, 11 de diciembre). The AI Act: deregulation in disguise. Socialeurope. https://www.socialeurope.eu/the-ai-act-deregulation-in-disguise.
Reglamento (UE) 2019/2024 del Parlamento Europeo, de mayo de 2019, relativo a las reglas internas parlamentarias. Diario Oficial de la Unión Europea, 302, de 22 de noviembre de 2019, páginas 1 a 128 (128 págs.). https://www.europarl.europa.eu/doceo/document/RULES-9-2023-05-08_ES.pdf.
Schröder, A. (2022, 14 de octubre). Real-time’ versus ‘post’ remote biometric identification systems under the AI Act. alti.amsterdam. https://alti.amsterdam/schroder-biometric/.
Vranken, B. (2023, 24 de noviembre). Big Tech lobbying is derailing the AI Act. Socialeurope. https://www.socialeurope.eu/big-tech-lobbying-is-derailing-the-ai-act.
Notas
- Al respecto, véase: European Commission. (2023). Commission welcomes political agreement on Artificial Intelligence Act. Bruselas. https://ec.europa.eu/commission/presscorner/detail/en/IP_23_6473 y European Commission. (2021). Europe fit for the Digital Age: Commission proposes new rules and actions for excellence and trust in Artificial Intelligence. Bruselas. https://ec.europa.eu/commission/presscorner/detail/en/IP_21_1682. ↑
- Efectivamente, el acuerdo fue finalmente alcanzado tras una jornada maratoniana de más de 36 horas de negociaciones en la quinta sesión de los trílogos entre el Consejo, el Parlamento y la Comisión de la UE. Al respecto, véase: European Council. (2023). Timeline – Artificial intelligence. Bruselas. https://www.consilium.europa.eu/en/policies/artificial-intelligence/ y Liboreiro, J. (2023, 01 de diciembre). Marathon talks in Brussels fail to reach deal on EU AI Act. But Friday offers new chance. Euronews. https://www.euronews.com/my-europe/2023/12/07/marathon-eu-talks-fail-to-reach-deal-on-artificial-intelligence-act-but-friday-offers-new-. ↑
- En lo que queda de diciembre de 2023 y hasta principios de enero de 2024 se seguirá negociando el contenido técnico del acuerdo político alcanzado el pasado 8 de diciembre entre el Parlamento y el Consejo de la UE con el objeto de poner, negro sobre blanco, el texto final (borrador definitivo del futuro Reglamento) que después deberá ser objeto de aprobación por ambas instituciones europeas. Al respecto, véase: Fernández, C. (2023, 15 de diciembre). Reglamento de IA: las partes negocian el contenido técnico del acuerdo político alcanzado. Diariolaley. https://diariolaley.laleynext.es/dll/2023/12/18/reglamento-de-ia-las-partes-negocian-el-contenido-tecnico-del-acuerdo-politico-alcanzado. ↑
- Al respecto, véase: Reglamento (UE) 2019/2024 del Parlamento Europeo, de mayo de 2019, relativo a las reglas internas parlamentarias. Diario Oficial de la Unión Europea, 302, de 22 de noviembre de 2019, páginas 1 a 128 (128 págs.). https://www.europarl.europa.eu/doceo/document/RULES-9-2023-05-08_ES.pdf. ↑
- Las primeras versiones de este documento de trabajo legislativo hacía referencia a tres categorías o niveles de sistemas de IA: a ) Los modelos de base, cimentación o fundacionales (tipo GPT-4 o PaLM 2) que son básicos para la mayoría de implementaciones prácticas actuales; b) Los sistemas «muy capaces», sobre todo en lo que se refiere al proceso utilizado para su entreno; y c) Los sistemas de propósito general (como el ChatGPT), muchos de los cuales son bastantes potentes y que, por su diseño, podrían plantear riesgos sistémicos. Al respecto, véase: Nardelli, A. y Deutsch, J. (2023, 18 de octubre). EU Plans Stricter Rules for Most Powerful Generative AI Models. Bloomberg. https://www.bloomberg.com/news/articles/2023-10-18/eu-plans-stricter-rules-for-most-powerful-generative-ai-models. No obstante, el acuerdo del pasado 8 de diciembre solo hace especial referencia a los modelos de propósito general (categorizándolos además en dos niveles: aquellos que presentan un riesgo sistémico y los que no lo plantean) y a los modelos de base, cimentación o fundacionales (los cuales deben cumplir con obligaciones específicas de transparencia antes de su comercialización). Al respecto, véase también: European Council. (2023, 9 de diciembre). Artificial intelligence act: Council and Parliament strike a deal on the first rules for AI in the world. Bruselas. https://www.consilium.europa.eu/en/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/. ↑
- Al respecto, véase: Vranken, B. (2023, 24 de noviembre). Big Tech lobbying is derailing the AI Act. Socialeurope. https://www.socialeurope.eu/big-tech-lobbying-is-derailing-the-ai-act, Corporate Europe Observatory. (2023, 17 de noviembre). Byte by byte. How Big Tech undermined the AI Act. Corporate Europe Observatory. https://corporateeurope.org/en/2023/11/byte-byte, Corporate Europe Observatory. (2023, 08 de diciembre). Lobbying power of Amazon, Google and Co. continues to grow. Corporate Europe Observatory. https://corporateeurope.org/en/2023/09/lobbying-power-amazon-google-and-co-continues-grow y Eguiluz, J. (2023, 15 de diciembre). Cinco aclaraciones necesarias sobre el Reglamento de IA (con un prólogo para tecnólogos y un epílogo para optimistas). Diariolaley. https://diariolaley.laleynext.es/dll/2023/12/15/cinco-aclaraciones-necesarias-sobre-el-reglamento-de-ia-con-un-prologo-para-tecnologos-y-un-epilogo-para-optimistas. ↑
- European Parliament. (2023, 09 de diciembre). Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI – Press Releases. Europarl.europa. https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai. ↑
- Al respecto, véase: European Council. (2023, 6 de diciembre). Artificial Intelligence Act: Council calls for promoting safe AI that respects fundamental rights. Bruselas. https://www.consilium.europa.eu/en/press/press-releases/2022/12/06/artificial-intelligence-act-council-calls-for-promoting-safe-ai-that-respects-fundamental-rights/. También vid. nota al pie de página Nro. 5. ↑
- Esto significa que el marco legal del nuevo Reglamento se aplicará tanto a actores públicos como privados dentro y fuera de la UE siempre que el sistema de IA se comercialice en el mercado de la Unión o su uso afecte a personas ubicadas en la UE. ↑
- Por tanto, se observa como en el acuerdo alcanzado se mantiene el enfoque original basado en riesgos que viene defendiendo de la Comisión desde el inicio de sus negociaciones con el Parlamento de la UE. Al respecto, véase: nota al pie de página Nro. 2, Ponce, A. (2023, 11 de diciembre). The AI Act: deregulation in disguise. Socialeurope. https://www.socialeurope.eu/the-ai-act-deregulation-in-disguise y European Commission. (2023, 12 de diciembre). Artificial Intelligence – Questions and Answers. Bruselas. https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683. ↑
- Con el fin de garantizar que las empresas, especialmente las pymes, pudieran desarrollar soluciones de IA libres de presiones indebidas por parte de los gigantes de la industria que hoy en día controlan la cadena de valor, el acuerdo promueve los “entornos o bancos de pruebas regulatorios” y los procesos de “real-world-testing” establecidos por las autoridades nacionales como mecanismos para desarrollar y entrenar a la IA innovadora antes de su comercialización. ↑
- Vid. nota al pie n.º 1. ↑
- Vid. nota al pie n.º 5. ↑
- Junto con las autoridades nacionales de vigilancia del mercado, la Oficina de IA será el primer organismo a nivel mundial que hará cumplir las normas vinculantes sobre IA y, por lo tanto, se habrá de convertir en un punto de referencia internacional en la materia. ↑
- Se trata de sistemas en los que la identificación biométrica sólo se produce después de que los datos biométricos hayan sido capturados. Por tanto, el uso de estos sistemas podría implicar imágenes o secuencias de vídeo generadas por cámaras de televisión de circuito cerrado o dispositivos privados que hayan sido recabadas antes del uso del sistema con respecto a la identificación de las personas físicas en cuestión. Al respecto, véase: Schröder, A. (2022, 14 de octubre). Real-time’ versus ‘post’ remote biometric identification systems under the AI Act. alti.amsterdam. https://alti.amsterdam/schroder-biometric/. ↑
- Al respecto, véase: Amnesty International (2023, 27 de noviembre). EU: France, Germany and Italy risk unravelling landmark AI Act negotiations. Amnesty. https://www.amnesty.org/en/latest/news/2023/11/eu-france-germany-and-italy-risk-unravelling-landmark-ai-act-negotiations/. ↑
- Por ejemplo, el aumento de la documentación y la supervisión humana podría representar una molestia para el negocio (a nivel de costes) de las grandes trasnacionales tecnológicas, al menos en forma de tiempo y dinero. Al respecto, véase: Dobberstein, L. (2023, 11 de diciembre). Trust us, says EU, our AI Act will make AI trustworthy by banning the nasty ones. The Register. https://www.theregister.com/AMP/2023/12/11/eu_agrees_ai_act/. También vid. nota al pie nº 6. ↑
- Un ejemplo de esto se puede ver en el impacto de los deepfakes en el conflicto palestino-israelí que comenzó en octubre de 2023 y que, sobre todo, visibilizan el peligro del poder de la IA para engañar a la sociedad internacional. Al respecto, véase: Klepper, D. (2023, 28 de noviembre). Fake babies, real horror: Deepfakes from the Gaza war increase fears about AI’s power to mislead. AP. https://apnews.com/article/artificial-intelligence-hamas-israel-misinformation-ai-gaza-a1bb303b637ffbbb9cbc3aa1e000db47. ↑
- Al respecto, véase: Amnesty International (2023, 09 de diciembre). EU: Bloc’s decision to not ban public mass surveillance in AI Act sets a devastating global precedent. Amnesty. https://www.amnesty.org/en/latest/news/2023/12/eu-blocs-decision-to-not-ban-public-mass-surveillance-in-ai-act-sets-a-devastating-global-precedent/. ↑
- Al respecto, véase: Chan, K. (2023, 09 de diciembre). Europe reaches a deal on the world’s first comprehensive AI rules. AP. https://apnews.com/article/ai-act-europe-regulation-59466a4d8fd3597b04542ef25831322c. ↑
- Al respecto, véase: Hartmann, T. (2023, 06 de diciembre). AI Act: Building agile governance that keeps up with innovation speed. Euractiv. https://www.euractiv.com/section/digital/news/ai-act-building-agile-governance-that-keeps-up-with-innovation-speed/. ↑
29 /
12 /
2023