Un breu repàs als avanços de la civilització ens mostra que, en línies generals, bona part del progrés humà es deu al fet que hem concentrat les nostres intel·ligències en tasques que exigien un major talent, i hem mecanitzat tot allò que ens ha estat possible. Ara, la intel·ligència artificial (IA) representa una gran oportunitat per ampliar la nostra intel·ligència humana, i expandir les nostres capacitats de raonament i creativitat per a la resolució de problemes complexos en els quals ens trobem immersos la humanitat. En aquest escenari hem d'acceptar que la IA ha arribat per quedar-se.
No obstant això, a mesura que l'accés a la IA es democratitza gràcies a la seva creixent facilitat d'ús, és crucial prendre mesures per a evitar el seu mal ús i el consegüent mal que pugui fer. La història d'altres tecnologies ens ha ensenyat que el seu ús no sempre es limita a persones amb bones intencions. Per tant, igual que amb altres tecnologies importants en la nostra vida, és necessari establir un marc regulador consensuat. A ningú li agrada ser regulat, però tot el que pot comportar un potencial perill per a la societat ho està.
Avui no podem imaginar-nos una societat avançada sense una agència com l'Agència Europea de Medicaments, que regula i controla la producció, la distribució i l'ús dels fàrmacs. El mateix ha de plantejar-se en el camp de la IA i les seves aplicacions específiques han de ser també regulades i, en alguns casos, prohibides si fos necessari. En aquest sentit, Europa ha treballat activament en la creació d'una regulació, i ha ponderat tant els enfocaments observats als Estats Units (menys restrictiu) com a la Xina (més estricte).
El desembre passat la Comissió Europea, els estats membres de la UE i el Parlament Europeu van acordar les bases de la llei europea de la IA, la qual s'espera que entri en ple vigor en 2026. Es defineixen diversos nivells de protecció com la seguretat i la defensa dels drets fonamentals i la creació d'un ecosistema de confiança. Presenta, a més, requisits específics tant per al desenvolupador de la IA com per a l'usuari durant el cicle de vida de la IA. L'atenció se centra en els aspectes ètics, legals i tècnics del seu ús: la idea és responsabilitzar a les empreses de les infraccions de privacitat o de les decisions injustes preses per les seves IA. Per a les aplicacions d’IA d'alt risc existeixen requisits addicionals.
Ara bé, considerem per exemple les fake news. Es tracta d'un problema anterior a la irrupció d'aquesta IA, perquè en realitat, les dades de text mai van ser de confiança, els humans hem modificat al nostre antull la veracitat d'un redactat. I fins i tot les imatges, encara que amb menys facilitat, sabem que s'han alterat durant molt de temps amb programari que precedeix a la IA de la qual estem parlant (per exemple, Photoshop). Encara que sens dubte ChatGPT i DALL-E, a l'abast de qualsevol, han vingut per ampliar aquesta falta de confiabilitat dels textos i les imatges. En definitiva, som els humans en última instància els responsables de la veracitat de les dades, no la IA.
Per sort, fins ara estaven a l'abast de pocs les eines i coneixements per a poder manipular de manera creïble la imatge en un vídeo. Per això es recorria a vídeos si no hi ha altre remei com a mitjà d'informació per a verificar fets. Però això s'ha acabat també, aquest mes de febrer OpenAI va anunciar un nou model d'IA, anomenat Sora, un model que a partir d'un text pot generar vídeos d'un minut d'alta qualitat i realisme. I suposant que seguirà l'avanç que va experimentar GPT, no trigarem a tenir versions d'aquesta IA amb moltes més capacitats.
Totes aquestes noves IA que aviat estaran en mans de qualsevol seran una eina il·limitada amb potencial de distorsionar la realitat, degradaran la qualitat de l'ecosistema de la informació a mesura que es torni més indistingible si els seus creadors han estat una IA o els humans. Com era d'esperar, els científics vam mostrar preocupació sobre aquest tema. Sense anar més lluny, Geoffrey Hinton —el més reconegut investigador actual en l'àmbit de la IA — va decidir en 2023 abandonar Google per a poder parlar sense lligams dels perills de la IA. A més de la "por" que li produeix les possibles conseqüències de la competència agressiva entre les grans tecnològiques, el preocupa especialment que l'ús massiu d'aquestes noves IA provoqui que la població no pugui distingir entre el que és veritable i el que no ho és, convertint la veritat en un concepte fàcilment manipulable i pervertit.
Per prevenir aquest escenari es requereix sens dubte una bona regulació, com la proposta per Europa, que vetlli per l'adequat desenvolupament i ús de la IA, en el més ampli sentit del terme: lleis, regles, protocols d'actuació, autoregulació, etc. Però per a mi no és suficient, el focus hem de posar-lo sobretot en la conscienciació i sensibilització ciutadana sobre la IA, desenvolupar iniciatives d'educació pública, i apel·lar a la responsabilitat individual de tots i cadascun de nosaltres. Perquè la IA no és bona ni dolenta, és una tecnologia que la fa bona o dolenta qui l'usa. Aquest desafiador esforç requereix una col·laboració estreta i un compromís sense reserves per part de la societat civil, experts, empreses tecnològiques i líders de la societat, en l'àmbit mundial, precisament perquè la carrera empresa entre les grans tecnològiques és a escala global.