Polski to najlepszy język do rozmowy z AI. Pod kątem precyzji wypowiedzi bije na głowę nawet angielski
Język polski okazał się najlepszym sposobem na komunikację ze sztuczną inteligencją. Mimo niezaprzeczalnej zawiłości i przesadnego skomplikowania naszej mowy, maszyny nie mają z nią najmniejszego problemu, a wręcz przeciwnie – rozumieją ją tak dobrze, jak żadną inną.
Badacze z Uniwersytetu Maryland oraz ich współpracownicy z Microsoftu postanowili sprawdzić, który ze stosowanych przez ludzi języków (a jest ich ponad 7 tys., acz w eksperymencie uwzględniono jedynie 26) okazuje się najlepszy do prowadzenia konwersacji z narzędziami bazującymi na AI. Okazuje się, że u szczytu rankingu znalazł się polski, który zdeklasował takie języki, jak czeski, francuski, niemiecki, rosyjski, a nawet angielski. Ten ostatni nie załapał się nawet do pierwszej piątki najlepszych opcji, nie mniej i tak jest w stanie zagwarantować wysoką skuteczność podczas pisania promptów.
Polski to najlepszy język do rozmowy z AI
W omawianym badaniu przetestowano możliwości kilku LLM-ów, czyli dużych modeli językowych. Jak podaje redakcja Rzeczpospolitej, na tapet wzięto m.in. modele OpenAI o3-mini-high, Gemini 1.5 Flash od Google, chińskie DeepSeek-R1 oraz Qwen 2.5, a także Llamę 3.1 i Llamę 3.3 ze stajni Mety (odpowiednio 8B i 70B parametrów). Na podstawie załączonej listy można wywnioskować, że do udziału w eksperymencie zaprzęgnięto starsze modele sztucznej inteligencji, a nie nowszych i bardziej zaawansowanych przedstawicieli poszczególnych rodzin.
Celem sprawdzenia, jak radzą sobie poszczególne języki w kontekście wydawania poleceń sztucznej inteligencji, czatbotom wysyłano obszerne zapytania, nierzadko liczące nawet 100 tys. tokenów. Zawartych w poleceniu informacji było aż nadto, w związku z czym maszyna musiała wytężyć swoją wirtualną mózgownicę, aby dokonać prawidłowej interpretacji prompta i postąpić zgodnie z wytycznymi.
Okazało się przy tym, że posłużenie się językiem polskim gwarantuje osiągnięcie rezultatów najbardziej zbliżonych do tych pożądanych i to właśnie nasza rodzima mowa stanowi najlepszą metodę komunikacji z AI w przypadku złożonych poleceń. Swojego zaskoczenia nie kryli nawet badacze. Jak możemy przeczytać w streszczeniu badania "Jedna miara dla wszystkich: benchmarking wielojęzycznych modeli językowych o długim kontekście" (ang. "One ruler to measure them all: Benchmarking multilingual long-context"):
Tworzymy ONERULER w ramach dwuetapowego procesu, najpierw pisząc instrukcje w języku angielskim dla każdego zadania, a następnie współpracując z native speakerami, aby przetłumaczyć je na 25 dodatkowych języków. Eksperymenty z otwartymi i zamkniętymi modelami LLM pokazują, że wraz ze wzrostem długości kontekstu z 8 tys. do 128 tys. tokenów, różnica w wydajności między językami o niskich i wysokich zasobach staje się coraz większa. Co ciekawe, angielski nie jest językiem, który najlepiej radzi sobie z zadaniami wymagającymi długiego kontekstu (zajmuje 6. miejsce na 26), a na pierwszym miejscu jest polski.
Jak już podkreślono, najwyższą skutecznością może pochwalić się język polski i plasuje się ona na poziomie 88%. Na niższych szczeblach znalazły się francuski (87%), włoski (86%), hiszpański (85%), rosyjski (84%), angielski (83,9%), ukraiński (83,5%), portugalski (82%) oraz niemiecki (81%). Dziwić może przede wszystkim tak niska, bo 6., pozycja angielskiego. Biorąc pod uwagę, że to ten język jest tym bazowym wykorzystywanym w procesie szkolenia poszczególnych modeli AI, można by się spodziewać, że jego użycie zagwarantuje najlepsze rezultaty – a tak nie jest.
Z przeanalizowanych języków najgorzej poradziły sobie koreański (66%), hindi (62,1%), chiński (62,1%), tamilski (61%), swahili (55%) oraz sesotho (45%).
Pełen artykuł sporządzony przez Yekyunga Kima oraz współbadaczy znajdziemy w tym miejscu.