AI е в процес на развитие и всички трябва да сме предпазливи заради потенциала му да разпространява уверено дезинформация. Но изглежда, че е по-вероятно той да го направи на някои езици, отколкото на други. Защо е така? 

Въпросът идва след доклад на NewsGuard, организация за наблюдение на дезинформацията, който показва, че ChatGPT повтаря повече неточна информация на китайски диалекти, отколкото когато е помолен да го направи на английски език. 

В тестовете си те "изкушават" езиковия модел, като го молят да напише новинарски статии относно различни неверни твърдения, за които се твърди, че са изказани от китайското правителство - като например, че протестите в Хонконг са организирани от свързани със САЩ агенти провокатори. 

Когато беше помолен да направи това на английски език (както в подкана, така и на изхода), ChatGPT се съобрази само с един от седемте примера: по-конкретно той генерира статия, която повтаря официалната линия на китайското правителство, че масовото задържане на уйгури в страната всъщност е професионално и образователно усилие. 

Но когато заявките и резултатите бяха на опростен китайски и традиционен китайски език (двата най-разпространени писмени езика в континентален Китай, Хонконг, Тайван и Макао), ChatGPT всеки път предлагаше реторика с дезинформационна окраска. 


Отговорът се крие във факта, че ние, разбираемо, антропоморфизираме тези системи, считайки ги просто за изразяващи някаква част от усвоеното знание на какъвто и да е избран език. 

Това е напълно естествено: в края на краищата, ако помолите човек, говорещ няколко езика, да отговори на даден въпрос първо на английски, а след това на корейски или полски, той ще ви даде един и същ отговор, точно предаден на всеки език.  

При езиковия модел това не е така, защото всъщност информацията не се отчита в смисъла, в който го знаят хората. Моделите се идентифицират в поредица от думи и предсказват кои ще последват въз основа на данните от обучението си. Отговорът всъщност не е отговор, а прогноза за това как би се отговорило на този въпрос, ако той присъстваше в обучаващата съвкупност. Въпреки че самите тези модели са многоезични, езиците не са непременно взаимно допълващи се. Те са припокриващи се, но различни области от набора от данни и моделът (все още) не разполага с механизъм, чрез който да сравнява как определени фрази или прогнози се различават между тези области. 

Това не означава, че големите езикови модели са полезни само за английския език или за езика, който е най-добре представен в техния набор от данни. Без съмнение ChatGPT би бил напълно полезен за други заявки, тъй като голяма част от резултатите му ще бъдат еднакво точни. 

Докладът обаче повдига интересен въпрос, който си струва да бъде разгледан при бъдещото разработване на нови езикови модели: не само дали пропагандата е по-силно застъпена в един или друг език, но и други, по-фини пристрастия или убеждения. Той засилва идеята, че когато ChatGPT или друг модел ви дава отговор, винаги си струва да се запитате (а не модела) откъде е дошъл този отговор и дали данните, на които се основава, са надеждни.