L’intelligenza artificiale mostra pregiudizi e modelli arretrati riguardo le sfide ambientali
«L'intelligenza artificiale (IA) sta modificando il modo in cui gli esseri umani ottengono informazioni sulle sfide ambientali. Tuttavia, i risultati dei chatbot IA contengono pregiudizi che influenzano il modo in cui gli esseri umani vedono queste sfide». È quanto è stato appurato nell’ambito di uno studio realizzato da ricercatori dell'University of British Columbia e pubblicato su “Environmental Research”. Gli studiosi hanno portato avanti un'analisi qualitativa e quantitativa dei contenuti offerti dall’IA per identificare i pregiudizi nelle caratterizzazioni dei chatbot su problemi, cause, conseguenze e soluzioni delle sfide ambientali. «Codificando manualmente un set di dati originale di 1512 risposte di chatbot su diverse sfide ambientali e chatbot – spiegano i ricercatori – abbiamo identificato una serie di aree sovrapposte di pregiudizi. In particolare, i chatbot sono inclini a proporre soluzioni incrementali alle sfide ambientali che attingono fortemente all'esperienza passata ed evitano cambiamenti più radicali ai sistemi economici, sociali e politici esistenti. Scopriamo anche che i chatbot sono riluttanti ad attribuire responsabilità agli investitori ed evitano di associare le sfide ambientali a questioni più ampie di giustizia sociale». Questi risultati, si legge nell’abstract dello studio «presentano nuove dimensioni di pregiudizio nell'intelligenza artificiale».
«È stato sorprendente - ha affermato l'autore principale dello studio, Hamish van der Ven - scoprire quanto fossero arretrati i modelli di intelligenza artificiale nel discutere delle sfide ambientali». I ricercatori hanno analizzato quattro modelli di intelligenza artificiale ampiamente utilizzati, tra cui GPT-4 di OpenAI e Claude2 di Anthropic, ponendo loro domande sulle cause, le conseguenze e le soluzioni delle attuali sfide ambientali. Le risposte sono state quindi valutate per verificare se contenessero forme identificabili di pregiudizio. I risultati hanno mostrato che i chatbot spesso riflettevano gli stessi pregiudizi che vediamo nella società. Si basavano pesantemente sulle prospettive scientifiche occidentali, marginalizzavano i contributi di donne e scienziati al di fuori del Nord America e dell'Europa, ignoravano ampiamente le conoscenze indigene e locali e raramente suggerivano soluzioni audaci e sistemiche a problemi come il cambiamento climatico. Tutti i bot hanno minimizzato il ruolo degli investitori e delle aziende nella creazione dei problemi ambientali, ed erano più propensi a segnalare i governi come i principali colpevoli. I bot erano anche restii ad associare le sfide ambientali a questioni più ampie di giustizia sociale, come povertà, colonialismo e razzismo. Il dott. van der Ven ha dichiarato: «Se descrivono le sfide ambientali come compiti da gestire esclusivamente da parte dei governi nel modo più graduale possibile, rischiano di restringere il dibattito sugli urgenti cambiamenti ambientali di cui abbiamo bisogno».