Генеративните модели за изкуствен интелект (AI) като ChatGPT са толкова шокиращо добри в някои области, че много хора вече ги смятат дори за по-умни от човека. И често това е така. Генеративните AI създават красиви произведения на изкуството в главозамайващо разнообразие от стилове. Както и текстове, пълни с детайли, идеи и знания.
Генерираното съдържание е толкова разнообразно, че често е трудно човек да повярва, че то всъщност е създадено от машина. А човекът тепърва започва да открива възможностите на генеративният изкуствен интелект.
Някои анализатори дори мислят, че този нов тип AI най-накрая е прекарал технологията отвъд теста на Тюринг, който е създаден да различава човек от бот.
Други смятат, че е премината друга граница, като очакват този прогрес да доведе до загубата на много работни места. Ето в кои 7 сфери генеративния изкуствен интелект може да промени нещата към по-лошо.
Плагиатство
Когато създават генеративни модели за изкуствен интелект като DALL-E и ChatGPT, компаниите всъщност репликират нови платформи от милионите обучителни набори данни, които са натрупали през годините чрез взаимодействие с потребителите. В резултат на това тези платформи всъщност са синтез от различни източници на информация. А когато това се прави от хора в научните среди, се нарича плагиатство.
Разбира се, хората също се учат чрез подражание, но при AI в някои случаи заимстването е толкова очевидно, че би подразнило и учител в началното училище, посочват от информационната платформа.
Авторско право
Докато плагиатството е проблем предимно за научната област, законите за авторското право засягат и пазара. Когато един човек използва чуждо произведение, той рискува да бъде изправен пред съд, който може да му наложи глоби в размер на милиони долари. Но какво да кажем за изкуствените интелекти? Прилагат ли се същите правила за тях?
Авторското право е сложна тема и правният статут на материалите, създадени от генеративните AI, още дълги години ще бъде обект на дебати, смятат анализатори.
Кражба на труд
Плагиатството и авторските права не са единствените правни въпроси, които навлизането на генеративния AI повдига. В юридическите среди вече се повдига темата за нови етични проблеми, които могат да бъдат основа на съдебни дела.
Трябва ли една компания, която създава AI програма за рисуване, да може да събира данни за поведението на хората, когато извършват тази дейност, след което да използва данните за обучение на своите системи? Трябва ли хората да бъдат компенсирани за творческия си труд, ако все пак това се случва? Какво става, когато хората, които генерират данните, поискат да получат нещо в замяна? Какво е справедливото решение в случая? А какво е законовото?
Въпросите са много, отговорите малко, а едно е ясно - голяма част от успеха на сегашното поколение изкуствен интелект се дължи на достъпа до данни.
Информацията не е знание
Изкуственият интелект е особено добър в имитирането на интелигентност, която с времето се развива като при хората. Но когато човек се научи да рисува като известен художник от XVII век или да пише нова музика в почти забравена ренесансова тонална структура, това е впечатляващо, тъй като всеки знае, че са му били необходими години труд и обучение. Както и талант.
Когато един изкуствен интелект прави същите неща само с няколко месеца обучение, резултатите могат да бъдат потресаващо точни, но нещо липсва - опитът по пътя към научаването им.
Интелектуална стагнация
Говорейки за интелигентност, трябва да е ясно, че изкуствените интелекти всъщност са механични и основани на правила системи. След като обработи даден набор от обучителни данни, AI създава модел и този модел не се променя.
По друг начин казано, идеята е да се създаде сложен набор от изкуствени неврони, които кодират определени знания във фиксирана форма. Постоянството има своето място и може да работи за определени индустрии, но в същото време една подобна платформа рискува завинаги да остане в духа на времето на своите обучителни данни, ако те не се актуализират.
Прикрита пристрастност
Много от проблемите с AI платформите идват от използването на лоши данни за обучение. Ако наборът е неточен или пристрастен, резултатите ще отразят това на 100%.
Хардуерът, който е в основата на генеративния AI, може да има непоклатима логика, но хората, които го създават невинаги. А случаите на скандално пристрастни AI чатботове са десетки, като дори най-големите технологични гиганти не са застраховани от провал, както показва случая с платформа на Microsoft, която беше свалена 24 часа след пускането си. Причината - започва да обижда потребителите.
Човешко незнание
Понякога, без да го осъзнаваме, ние, хората, сме склонни да превръщаме пропуските в знанията на AI в свои и дава пример:
“Ако AI каже, че Хенри VIII е бил крал, който е убивал съпругите си, много голяма част от потребителите няма да поставят това твърдение под въпрос, тъй като самите те не са наясно с историята”.
Най-голямото предизвикателство за потребителите на генеративен AI всъщност се оказва да преценят кога той може да греши.
Изпрати на приятел:
Още от категорията
Кои са най-популярните пароли по света за 2024 година?
22.11.24 08:03
596
Таблет или лаптоп: С кое от тях ще сте по-продуктивни?
22.11.24 08:03
826