Un pas cap endavant en la regulació de la intel·ligència artificial

Al BOE del dia 9 de novembre, s’ha publicat el Reial decret 817/2023 que posa en marxa l’entorn controlat de proves (“sandbox”) del Reglament europeu d’intel·ligència artificial

L’informem que al BOE del dia 9 de novembre, s’ha publicat el Reial decret 817/2023 pel qual s’habilita al Ministeri d’Assumptes Econòmics i Transformació Digital, a través de la seva Secretaria d’Estat de Digitalització i Intel·ligència Artificial, a obrir la convocatòria a empreses per a participar en l’entorn controlat de proves -sandbox- del Reglament europeu d’intel·ligència artificial.

Cal tenir en compte que actualment el Parlament i Consell europeus estan elaborant un reglament d’intel·ligència artificial.

En aquest context, el Govern d’Espanya, amb la col·laboració de la Comissió Europea, ha posat en marxa el primer entorn controlat de proves per a comprovar la manera d’implementar els requisits aplicables als sistemes d’intel·ligència artificial (IA) d’alt risc de la proposta de Reglament europeu d’intel·ligència artificial.

Objectiu i entrada en vigor

La norma té per objecte establir un entorn controlat de proves per a assajar el compliment d’uns certs requisits per part d’alguns sistemes d’intel·ligència artificial (IA) que puguin suposar riscos per a la seguretat, la salut i els drets fonamentals de les persones. Així mateix, es regula el procediment de selecció dels sistemes i entitats que participaran en l’entorn controlat de proves

L’entorn de proves possibilita la cooperació entre els usuaris i els proveïdors d’IA. A més, pretén acostar a les autoritats competents les empreses desenvolupadores d’IA.

L’objectiu de la norma serà anticipar-se a les exigències que previsiblement incorporarà el reglament europeu d’IA, amb la finalitat que, sense necessitat d’esperar al fet que aquest s’aprovi, proveïdors, usuaris i autoritats comencin a analitzar i a posar en pràctica els requisits reguladors que s’espera que introdueixi. De fet, la norma preveu que aquest Reial decret tindrà una vigència de màxim 36 mesos des de la seva entrada en vigor (10 de novembre de 2023) o, si és el cas, fins que sigui aplicable en el Regne d’Espanya el reglament del Parlament Europeu i del Consell pel qual s’estableixen normes harmonitzades en matèria d’IA.

Àmbit d’aplicació

La norma és aplicable:

  • A les administracions públiques i entitats del sector públic institucional.
  • entitats privades seleccionades en l’entorn controlat de proves d’intel·ligència artificial.

Definicions

En la norma es regulen les definicions, entre les quals podem destacar:

1)Sistema d’intel·ligència artificial»: sistema dissenyat per a funcionar amb un cert nivell d’autonomia i que, basant-se en dades d’entrades proporcionades per màquines o per persones, infereix com aconseguir un conjunt d’objectius establerts utilitzant estratègies d’aprenentatge automàtic o basades en la lògica i el coneixement, i genera informació de sortida, com a continguts (sistemes d’intel·ligència artificial generatius), prediccions, recomanacions o decisions, que influeixin en els entorns amb els quals interactua.

2)«Sistema d’intel·ligència artificial d’alt risc»: sistema d’intel·ligència artificial que compleixi algun dels següents supòsits:

  • Un sistema d’intel·ligència artificial que constitueixi un producte regulat per la legislació d’harmonització de la Unió especificada en l’annex VII del present reial decret es considerarà d’alt risc si ha de sotmetre’s a una avaluació de la conformitat per un tercer amb vista a la introducció en el mercat o posada en servei d’aquest producte conformement a la legislació esmentada.
  • Un sistema d’intel·ligència artificial que s’hagi de fer servir com un component que compleix una funció de seguretat i que la seva fallada o el defecte de funcionament posa en perill la salut i la seguretat de les persones o els béns en un producte regulat per una norma harmonitzada de la Unió Europea, si ha de sotmetre’s a una avaluació de conformitat per part d’un tercer amb vista a la introducció en el mercat o posada en servei d’aquest producte conformement a la legislació d’harmonització aplicable. Aquest supòsit serà aplicable, encara que el sistema d’intel·ligència artificial es comercialitzi o es posi en servei independentment del producte.
  • Sistemes d’intel·ligència artificial esmentats en l’annex II, sempre que la resposta del sistema sigui rellevant respecte a l’acció o decisió a prendre, i pugui, per tant, provocar un risc significatiu per a la salut, els drets de les persones treballadores en l’àmbit laboral o la seguretat o els drets fonamentals.

3) «Sistema d’intel·ligència artificial de propòsit general»: sistema d’intel·ligència artificial que, independentment de la modalitat en la qual es comercialitzi o es posi en servei, fins i tot com a programari de codi obert, està destinat pel proveïdor del sistema a realitzar funcions d’aplicació general, com el reconeixement de text, imatges i de la parla; la generació de textos, àudios, imatges o vídeos; detecció de patrons; resposta a preguntes; traducció i altres.

4) «Model fundacional»: és un model d’intel·ligència artificial entrenat en una gran quantitat de dades no etiquetades a escala (generalment mitjançant aprenentatge autosupervisat o amb recopilació automàtica de contingut i dades a través d’internet mitjançant programes informàtics) que dona com a resultat un model que es pot adaptar a una àmplia gamma de tasques posteriors.

5) «Proveïdor de sistemes d’intel·ligència artificial», d’ara endavant «Proveïdor IA»: tota persona jurídica privada, entitat del sector públic a Espanya, o organisme d’una altra índole, que ha desenvolupat o per a qui s’ha desenvolupat un sistema d’intel·ligència artificial, i que l’introdueix en el mercat o el posa en servei sota el seu propi nom o marca comercial, sigui de manera onerosa o gratuïta. El proveïdor IA serà designat de les formes indicades a continuació segons la fase del procés en la qual es trobi.

  • «Proveïdor IA sol·licitant»: proveïdor IA que ha sol·licitat l’admissió en l’entorn controlat de proves.
  • «Proveïdor IA participant»: proveïdor IA que ha estat admès en l’entorn controlat de proves.

6) «Usuari»: les persones jurídiques privades o les administracions públiques i entitats del sector públic institucional a Espanya sota l’autoritat del qual s’utilitzi un sistema d’intel·ligència artificial. L’usuari serà designat de les formes indicades a continuació segons la fase del procés en què es trobi.

  • «Usuari sol·licitant»: usuari del sistema d’intel·ligència artificial que ha sol·licitat la seva admissió en l’entorn controlat de proves.
  • «Usuari participant»: usuari del sistema d’intel·ligència artificial que ha estat admès en l’entorn controlat de proves i que participa juntament amb el proveïdor IA en aquest entorn.

7) «Autoavaluació d’acompliment»: procediment de verificació de l’acompliment dels requisits, del sistema de gestió de la qualitat, de la documentació tècnica i del pla de seguiment posterior a la comercialització, tots ells detallats en aquest reial decret, realitzats pel proveïdor IA i si és el cas, per l’usuari, i que pot servir com a referència per a l’avaluació de conformitat que defineix la proposta del reglament europeu pel qual s’estableixen normes harmonitzades en matèria d’intel·ligència artificial. L’autoavaluació d’acompliment se circumscriu a l’àmbit d’aquest entorn, sense que suposi l’equiparació a la superació d’avaluacions de conformitat exigides en altres legislacions específiques, en particular en la proposta del Reglament europeu d’intel·ligència artificial.

8) «Comercialització»: tot subministrament d’un sistema d’intel·ligència artificial per a la seva distribució o utilització en el mercat de la Unió Europea en el transcurs d’una activitat comercial, tant si es produeix el subministrament de manera onerosa o com gratuïta.

Requisits d’elegibilitat per a la participació en l’entorn

La norma estableix que la participació en l’entorn controlat de proves està oberta a aquells proveïdors IA i usuaris residents a Espanya o que tinguin un establiment permanent a Espanya, o bé, siguin part d’una agrupació d’entitats, on el representant de l’agrupació o apoderat únic sent-ne integrant, sigui l’entitat sol·licitant i que el domicili o l’establiment principal es trobi necessàriament en territori espanyol.

  • Atenció. Podran accedir a aquest entorn, en qualitat d’usuari participant, les persones jurídiques privades i administracions públiques i entitats del sector públic institucional que facin ús d’un sistema d’intel·ligència artificial d’alt risc, sistemes de propòsit general, o models fundacionals, sempre que el corresponent proveïdor IA accedeixi conjuntament a l’entorn amb l’usuari participant.

El proveïdor IA sol·licitant podrà presentar una o diverses propostes de sistema d’intel·ligència artificial d’alt risc, de propòsit general, o model fundacional. Aquests sistemes podran ser nous desenvolupaments o sistemes ja establerts. Alhora, aquests sistemes d’intel·ligència artificial han d’haver assolit un nivell de desenvolupament prou avançat per a poder-se comercialitzar o posar-se en servei dins del marc temporal de l’entorn controlat de proves o a la seva finalització. La sol·licitud es rebutjarà si el sistema d’intel·ligència artificial proposat no està prou madur.

Si és el cas, per a aquells sistemes d’intel·ligència artificial que facin ús o tractament de dades personals hauran de complir la normativa de protecció de dades.

Exclusions

Els sistemes d’intel·ligència artificial suggerits pels proveïdors IA sol·licitants no podran estar inclosos en els següents supòsits:

  • Sistemes d’intel·ligència artificial comercialitzats o posats en servei per a activitats militars, de defensa o seguretat nacional, sigui quina sigui l’entitat que desenvolupi aquestes activitats.
  • Sistemes d’intel·ligència artificial que se serveixin de tècniques subliminals que transcendeixin la consciència d’una persona amb l’objectiu o l’efecte d’alterar efectivament el seu comportament d’una forma que provoqui o pugui provocar, amb probabilitat raonable, perjudicis físics o psicològics a aquesta persona o a una altra.
  • Sistemes d’intel·ligència artificial que aprofitin alguna de les vulnerabilitats d’un grup específic de persones a causa de la seva edat o discapacitat o una situació social o econòmica específica amb l’objectiu o l’efecte d’alterar efectivament el comportament d’una persona d’aquest grup d’una forma que provoqui o pugui provocar, amb probabilitat raonable, perjudicis físics o psicològics a aquesta persona o a una altra.
  • Sistemes d’intel·ligència artificial que tinguin la fi d’avaluar o classificar persones físiques durant un període determinat de temps atenent la seva conducta social o a característiques personals o de la seva personalitat conegudes o predites, de manera que la classificació social resultant provoqui una o diverses de les situacions següents:
  1. Un tracte perjudicial o desfavorable cap a determinades persones físiques o col·lectius en contextos socials que no tinguin relació amb els contextos on es van generar o van recaptar les dades originalment.
  2. Un tracte perjudicial o desfavorable cap a determinades persones físiques o col·lectius que sigui injustificat o desproporcionat respecte al seu comportament social o la gravetat d’aquest.
  • Sistemes d’identificació biomètrica remota «en temps real» per al seu ús en espais d’accés públic amb finalitats d’aplicació de la llei, excepte i en la mesura en què aquest ús sigui estrictament necessari per a aconseguir un o diversos dels objectius següents:
  1. La cerca selectiva de possibles víctimes concretes d’un delicte, inclosos menors desapareguts.
  2. La prevenció d’una amenaça específica, important i imminent per a la vida o la seguretat física de les persones físiques, per a infraestructures crítiques, o un atemptat terrorista.
  3. La detenció, la localització, la identificació o l’enjudiciament de la persona que ha comès o se sospita que ha comès algun dels delictes esmentats en l’article 2, apartat 2, de la Decisió marc 584/2002/JAI del Consell, per al qual la normativa en vigor en l’Estat membre implicat imposi una pena o una mesura de seguretat privatives de llibertat la durada màxima de la qual sigui almenys tres anys, segons determini el Dret d’aquest Estat membre.

Informe i procediment

Prèvia a la finalització, tant dels proveïdors IA participants com dels usuaris participants, lliuraran un informe a la Subdirecció General d’Intel·ligència Artificial i Tecnologies Habilitadores Digitals.

El contingut de l’informe anterior s’indicarà en les guies que ofereixi l’òrgan competent. Les entitats que hagin completat les fases de l’entorn controlat de proves rebran un document acreditatiu de la seva participació en el mateix juntament amb un informe de valoració dels resultats obtinguts.

L’òrgan competent podrà obrir noves convocatòries en el futur.

Quan l’òrgan competent consideri que l’entorn controlat de proves ha complert amb l’objecte indicat en el present reial decret podrà determinar-ne la finalització i emetrà un comunicat públic a aquest efecte en el portal web de l’òrgan competent.

El proveïdor IA i, si és el cas, l’usuari, podran sol·licitar, mitjançant comunicació a l’òrgan competent a través del canal especificat en l’article 20.3 del present reial decret, la retirada voluntària de l’entorn controlat de proves per motius justificats.

Una vegada instruït el procediment, l’òrgan competent resoldrà la sol·licitud de sortida voluntària de forma motivada en el termini màxim de quinze dies hàbils. Aquesta resolució posa fi a la via administrativa i el sentit del silenci administratiu serà positiu.

En el cas que el proveïdor IA participant o, si és el cas, l’usuari participant es retiri de l’entorn controlat de proves, haurà de mantenir el deure de confidencialitat en els termes previstos en la resolució d’admissió.

Així mateix, la sortida tant d’un proveïdor IA participant com d’un usuari participant no generarà en cap cas dret d’indemnització ni cap compensació per part de l’òrgan competent.

L’òrgan competent, si així ho considera convenient per al resultat de l’entorn, podrà cobrir la posició alliberada per la retirada voluntària amb la següent entitat que hagués sol·licitat la participació d’acord amb el que es disposa en la convocatòria.

Es podrà declarar la finalització anticipada de les proves en l’entorn de manera individualitzada, donant per finalitzada l’experiència sense èxit per a aquest proveïdor IA participant o, si és el cas, usuari participant, mitjançant resolució motivada de l’òrgan competent d’acord amb la concurrència d’alguna de les següents circumstàncies:

  • S’ha produït un incompliment del règim jurídic en la convocatòria o en la resolució d’admissió.
  • S’ha cessat en el compliment d’algun dels requisits inicials per a l’elegibilitat per a la participació en l’entorn controlat de proves.
  • S’ha produït un incompliment del deure de facilitar informació requerida en el marc de seguiment establert per l’òrgan competent.
  • S’han produït incidents greus o errors de funcionament en els sistemes d’intel·ligència artificial.
  • S’ha identificat un risc no previst en la memòria tècnica.
  • L’entitat no aporta els recursos necessaris per a implantació dels requisits acordats en el pla d’implantació.
  • L’entitat no compleix amb les accions necessàries per a superar la declaració de compliment.
  • Qualsevol altra circumstància que es preveiés en la convocatòria.

Una vegada s’ha identificat alguna de les circumstàncies anteriors, l’òrgan competent, prèvia audiència amb els participants resoldrà de forma motivada en el termini màxim de quinze dies hàbils. Aquesta resolució posa fi a la via administrativa.

Addicionalment, als casos indicats, també es declararà la finalització anticipada de l’experiència en el cas que el proveïdor IA no dugués a terme les actuacions que li permetin donar compliment als requisits, descrits en l’article 11 del present reial decret, en el termini establert en la convocatòria, deixant de formar part de l’entorn controlat de proves previ l’oportú procediment.

En el cas que el proveïdor IA participant fos obligat a abandonar l’experiència també ho hauria de fer, en el cas que participés, l’usuari del sistema d’intel·ligència artificial.

La finalització anticipada de l’entorn controlat de proves no donarà lloc a cap indemnització per part de l’òrgan competent.

L’òrgan competent, si així ho considera convenient per al resultat de l’entorn, podrà cobrir mitjançant resolució la posició alliberada per la finalització anticipada de les proves amb la següent entitat que hagués sol·licitat la participació d’acord amb el que es disposa en la convocatòria.

 

Consulteu els nostres serveis fiscals, laborals i legals aquí.

JDA/SFAI



Dejar un comentario "El nombre que nos facilite aparecerá publicado junto a su comentario"

[an error occurred while processing this directive]
[an error occurred while processing this directive]

Subscriu-te a la nostra newsletter

Informació bàsica sobre Protecció de dades
Responsable: JDA Expert LegalTax, S.L.P.; Finalitat: L’enviament de comunicacions comercials; Drets: Té dret a accedir, rectificar i suprimir les dades, així com altres drets, com s’explica a la informació addicional; Informació adicional: Podeu consultar la informació addicional i detallada sobre Protecció de Dades a la nostra pàgina web: https://www.jda.es/protecciondatos/contactos/.