Cultura libera, pensiero critico prigioniero: l’effetto collaterale dei modelli linguistici.
Assolutamente contrario alla violazione del diritto d'autore sui testi. La cultura deve essere libera. Perché l'informazione è sinonimo di evoluzione e verità.
Però il modello linguistico LLM (es. chatGPT) non è a punto, ci sono rischi etici e cognitivi. Il modello presenta all'utente la risposta più diffusa e più accettata. Per alcuni e forse la maggioranza dei casi è giusto così, ma per argomenti non completamente accettati ed esplorati, non è giusto. E il rischio è che l’AI può indebolire il pensiero critico, riprodurre stereotipi e pregiudizi (sessisti, razzisti, culturali).
Altro appuntamento negativo, le informazioni di tipo puramente letterale, presenta ancora problemi, un tasto particolare di un autore a volte lo trascrive diversamente, provando il fenomeno negativo del "bias di ancoraggio".
Studio di Waltraud Kolb (Università di Vienna): i traduttori influenzati da versioni automatiche tendono a uniformarsi ai risultati della macchina (“bias di ancoraggio”).
Esempio di “bias di ancoraggio”:
Nel caso citato alla Fiera del Libro di Francoforte, la ricercatrice Waltraud Kolb ha mostrato che:
i traduttori che partivano da zero producevano versioni diverse di una frase di Hemingway;
quelli che partivano da una traduzione automatica tendevano tutti a mantenere la stessa soluzione fornita dalla macchina.
👉 In questo caso, la traduzione automatica iniziale ha agito come “ancora”, condizionando le scelte dei traduttori umani.
https://www.ilsole24ore.com/art/chi-usa-l-intelligenza-artificiale-e-ricettatore-AHRNh0DD