Najnowsze badania analizują, jak ChatGPT, zaawansowany model językowy OpenAI, interpretuje metafory kolorystyczne, powszechnie występujące w języku angielskim. Badanie opublikowane w *Cognitive Science* w lipcu 2025 roku, pod kierownictwem Profesor Lisy Aziz-Zadeh, porównywało odpowiedzi ChatGPT z odpowiedziami osób widzących kolory, osób z zaburzeniami widzenia barw oraz malarzy. Uczestnicy przypisywali kolory abstrakcyjnym słowom i interpretowali znane oraz nowe metafory kolorystyczne.
Wyniki ujawniły, że ChatGPT generował spójne asocjacje kolorystyczne, często odwołując się do emocjonalnych i kulturowych skojarzeń. Na przykład, interpretując „bardzo różowe przyjęcie”, ChatGPT zauważył, że „różowy jest często kojarzony ze szczęściem, miłością i życzliwością, co sugeruje, że przyjęcie było wypełnione pozytywnymi emocjami i dobrą atmosferą”. Jednak model miał trudności z nowymi metaforami i odwróconymi asocjacjami kolorystycznymi.
Inne badanie analizowało zdolność ChatGPT do odtwarzania ludzkich skojarzeń kolor-koncept. Naukowcy ocenili zdolność modelu do szacowania ludzkich skojarzeń kolor-koncept bez dodatkowego treningu. Odkryli, że oceny ChatGPT korelowały z ocenami ludzkimi, co wskazuje, że modele językowe mogą uczyć się skojarzeń kolor-koncept z danych językowych.
Badania te podkreślają postęp i ograniczenia sztucznej inteligencji w rozumieniu metafor kolorystycznych. Chociaż ChatGPT generuje asocjacje kolorystyczne na podstawie danych językowych, brakuje mu doświadczeń sensorycznych, które kształtują ludzkie rozumienie. Prowadzi to do trudności w interpretacji nowych lub odwróconych metafor. Przyszłe badania mogą skupić się na integracji bodźców sensorycznych z modelami AI, aby zniwelować tę lukę. To ważne, zwłaszcza w kontekście polskiej wrażliwości na niuanse językowe i historyczne konotacje kolorów.