La IA comporta riscos i no es pot permetre que violi la privacitat o que utilitzi algoritmes que discriminin.

A Andorra ja estem vivint els efectes negatius dels mals usos de la intel·ligència artificial (IA): casos com l’ús delictiu de la IA per generar imatges sexuals de noies menors d’edat, la suplantació del cap de Govern amb la seva imatge i veu modificades o les creacions artístiques presentades a un concurs que no tenien cap requisit respecte a l’ús d’aquests sistemes.

Fa uns mesos, l’eurodiputat alemany Axel Voss, que s’encarrega del règim de responsabilitat civil per a la intel·ligència artificial, explicava en una entrevista que un marc legal és necessari en relació amb els principis ètics que han de ser presents en la concepció, el desenvolupament, la implementació i el funcionament d’aquests sistemes. La IA tracta d’una tecnologia que suposa i suposarà un avenç qualitatiu al sistema productiu, científic i social i, molt probablement, deia Voss, mitjançant sistemes reguladors de verificació i control públics, acabarà creant societats més justes i sostenibles. Ara bé, com qualsevol altra tecnologia, la IA també comporta riscos i no es pot permetre que es violi la privadesa dels ciutadans o que s’utilitzin algoritmes que discriminin.

El  13 de març passat, el Parlament Europeu va aprovar la primera Llei d’intel·ligència artificial. Aquesta nova norma segueix un enfocament basat en el risc similar al de la nostra Llei Qualificada de Protecció de Dades i, entre altres, divideix els sistemes d’IA per categories de risc. La IA generativa, com ChatGPT, no es classifica com d’alt risc, però haurà de complir els requisits de transparència i la llei de drets d’autor de la UE. Algunes altres obligacions seran revelar que el contingut ha estat generat per IA; dissenyar models per evitar que generi contingut il·legal o publicar resums de dades amb drets d’autor fetes servir per a la generació de contingut.

Per altra banda, l’Índia ha triat un camí diferent del de la UE i permet als desenvolupadors d’IA generativa autoregular-se i etiquetar els seus propis productes. El Brasil, en canvi, destacat com un pioner en les discussions sobre la regulació de la IA, ha treballat un projecte de llei que preveu una autoritat federal dedicada a la IA compartint diverses responsabilitats i atribucions amb la seva Autoritat de Control de Protecció de Dades Personals.

Així, doncs, veiem com països d’arreu del món comencen a regular aquesta tecnologia per evitar que s’usi de forma poc ètica o delictiva, i Andorra no pot quedar enrere. Com a país que aposta per l’economia digital, ha de ser prioritari treballar en una regulació efectiva i ètica de la IA afavorint alhora la innovació i el creixement econòmic, en la definició de la col·laboració publicoprivada i una normativa prou flexible per anar adaptant-se als canvis.

En aquest context, i fins que no tinguem un marc normatiu propi, convindria elaborar protocols que garanteixin les bones pràctiques, com a mínim dins les administracions públiques. D’aquesta manera, s’hauria d’especificar en quines àrees o departaments es poden aplicar decisions automatitzades o parcialment automatitzades; quin és el nivell de supervisió humana, per a quines finalitats es prohibeix l’ús, etc. Alguns dels principis fonamentals pels quals hauria de partir aquesta política s’haurien de centrar en el respecte als drets d’autor, la propietat intel·lectual, la privacitat de les persones, la seguretat de les dades, l’equitat i no discriminació, la transparència, la responsabilitat i la rendició de comptes.

Paral·lelament al desenvolupament de la regulació a escala de país, Andorra també hauria de reforçar aquells organismes que, dins de la seva mesura, tenen les competències per poder actuar en alguns àmbits. Dotar de recursos i de personal qualificat aquests organismes garantiria, com a mínim i mentre no tinguem un marc regulador propi, poder fer front adequadament als mals usos d’aquestes tecnologies. Només així la ciutadania estarà segura que la seva privacitat continua sota uns límits infranquejables.