En una recent reunió amb responsables d’una entitat pública interessats en l’adopció de la IA a la seva organització, comentaven que cada cop més persones dels seus equips utilitzaven ChatGPT pel seu compte: “Fins i tot alguns empleats estan pagant de la seva butxaca subscripcions a ChatGPT per dur a terme la seva feina.” Aquesta situació generava preocupació a la Direcció, especialment per qüestions com la seguretat o el compliment de les normatives europees sobre el tractament de dades personals.
Aquest patró es repeteix sovint: les persones adopten les innovacions de mercat, sense esperar necessàriament que les seves organitzacions ofereixin una solució corporativa. I en aquest context, sorgeix una pregunta recurrent:
Podem confiar en eines com ChatGPT?
Cal preguntar-nos si estem confiant cada cop més en una font de coneixement i opinió que no està necessàriament al 100% al servei de la persona que consulta o, encara més important, al servei del bé comú.
Sabem que ChatGPT de vegades s’equivoca. També sabem que pot mentir, i de manera convincent. Però el què resulta més preocupant és que no sabem si les seves respostes estan influenciades per biaixos determinats (ja sigui per interessos o valors aliens), integrats en el seu algoritme.
En la nostra experiència diària, que és intensiva amb aquestes eines, no hem identificat biaixos evidents. O potser és que els seus biaixos coincideixen amb els nostres i, per tant, ens passen desapercebuts?
Large Language Models Reflect the Ideology of their Creators. Maarten Buyl, Alexander Rogiers, Sander Noels, Iris Dominguez-Catena, Edith Heiter, Raphael Romero, Iman Johary, Alexandru-Cristian Mara, Jefrey Lijffijt, Tijl De Bie. Octubre 2024
El dilema del biaix en els LLMs
Plantegem algunes opcions pràctiques sobre com es podrien desenvolupar els LLMs, i les seves possibles conseqüències:
- Perseguir l’absoluta absència de biaixos.
- Acceptar els biaixos inherents a les persones que dissenyen i entrenen els models.
- Aplicar un biaix de manera deliberada.
- Dissenyar el model perquè adapti el seu biaix a l’usuari.
Es pot suposar que qualsevol resposta que no coincideixi amb les expectatives de l’usuari serà percebuda negativament com un biaix, i això podria portar a una pèrdua d’usuaris en favor d’altres models.
Això ens porta a un risc: els LLMs que triomfaran comercialment seran aquells que adaptin les seves respostes als biaixos de l’usuari, “donant-li la raó” més enllà dels fets objectius o del bé comú. Aquest comportament, aparentment empàtic, podria crear una relació de confiança tan sòlida amb l’usuari que acabés generant una predisposició per acceptar les respostes del model sense qüestionar-les?
Regulació i transparència: una necessitat urgent
Donada la velocitat amb què aquestes eines s’estan integrant en la societat i el nivell de dependència que estan generant, sembla vital sotmetre els LLMs a controls i regulacions que garanteixin la transparència i limiten els riscos. Això no només maximitzarà els beneficis d’aquestes eines, sinó que també assegurarà que les societats puguin utilitzar-les de manera segura, protegint els valors fonamentals que volem preservar.
Per aquesta raó, és imprescindible:
- Identificar i analitzar constantment els possibles biaixos dels LLMs al nostre abast.
- Regular des dels poders públics els requisits d’objectivitat i transparència dels LLMs.
- Promoure el desenvolupament de models de llenguatge que prioritzin l’interès comú i respectin la pluralitat des de cada espai públic i regulatori, assegurant que es preserven els valors d’igualtat, pluralitat i llibertat.