Quan pregunto alguna cosa a la IA sempre penso el mateix: on estàs buscant les fonts? No estaràs llegint algun document que ha estat escrit ja amb IA? Fins a quin punt aquesta resposta que m’estàs donant no està viciada per tu mateix, estimat chatGPT?
Vaig llegir que aquesta meva preocupació, com era d’esperar, l’havia pensat molta gent i, de fet, tenia nom: col·lapse del model. És un problema greu.
El col·lapse s’inicia quan la IA llegeix fonts que, efectivament, estan creades per IA.
On ens pot portar això? Com que no tinc ni idea, però intueixo que res de bo, vaig anar a buscar que en dèien els experts. A la pàgina d’IBM diuen això:
Un adagi comú en el desenvolupament de la IA i la informàtica és que un model d’intel·ligència artificial (IA) és tan bo com les dades amb què es va entrenar. En els darrers anys, els investigadors han descobert que els models generatius entrenats únicament a la sortida dels seus predecessors produeixen resultats cada vegada més inexactes. Aquests models, assetjats per “defectes irreversibles”, acaben resultant inútils. Això és perquè qualsevol error present en els resultats d’un model durant el seu ajust s’inclou posteriorment en l’entrenament del seu successor. Aleshores, el nou model també produeix els seus propis errors. El col·lapse del model progressa a mesura que els errors s’agreugen amb les generacions successives.
Segons sembla, els experts estan proposant solucions, però ara mateix no m’interessa conèixer-les. M’interessa molt més quines són les mateixes coses generades per a nosaltres que poden tenir valor si estem en ple col·lapse. Si ja no ens poguéssim refiar del que la IA ens diu jo buscaria autenticitat. Intentaria nedar cap amunt en direcció al sol per respirar. Buscaria petits matisos i experiències humanes viscudes i si no existissin les escriuria.