Изпреварва ли развитието на новите технологии тяхната регулация и какви законови промени са необходими в сферата на изкуствения интелект - темата беше във фокуса на пленарната сесия на Европейския парламент тази седмица.

Днес ЕП прие нови правила за изкуствения интелект, а се очаква догодина да се приеме и цял закон. 

 

Евгения Атанасова разговаря с докладчика в тази сфера в ЕП - румънския евродепутат Драгош Тудораче от Парламентарна група "Обнови Европа", предаде БНТ.

- Г-н Тудораче, ЕП създава законодателство, което да регулира Изкуствен Интелект. Не отдавна лидери от водещите компании в тази индустрия призоваха за намаляване на темпото на развитие, дори пауза. Какви са най-важните въпроси, които трябва да бъдат регулирани веднага?

- Подходът, който предприемаме в ЕС с това законодателство, е да не осъждаме цялата технология. Много важно е да се разбере, че не регулираме самата технология на изкуствения интелект. Избрахме т.нар. "основан на риска" подход. Идентифицираме някои приложения на изкуствения интелект и ги групираме по категории в зависимост от вида риск и степента на този риск – рискове за нас като хора и за обществото. Посочваме кои приложения на изкуствения интелект са забранени на европейския пазар, защото носят сериозни заплахи за нашия интерес и не искаме да ги допуснем в Съюза. Ще дам един пример – такъв е „социалния рейтинг“, изкуствен интелект, използван масово в Китай срещу интересите на гражданите. Не искаме такова нещо да се прилага за нашите граждани в тяхното взаимодействие с държавата. Или например - изпреварващ полицейски контрол – това отново показва дискриминация срещу определени групи и общности. Това са два примера за вида забрани, които въвеждаме с текста.

Втората категория високорисков изкуствен интелект няма да бъде забранена сама по себе си (ще бъде позволена на пазара, но при изпълнение на някои задължения от създателите на приложенията или на ползвателите на приложенията). Тези задължения са свързани най-вече с прозрачността, която смятаме, че е важна за нашите граждани, за да имат доверие. Ако те не вярват на тази технология и на нейното взаимодействие с техния живот и интереси, няма да я използват. В обществото ще има резерви към нея. А ние не искаме това.

Изкуственият интелект е технология, която може да ни помага. Да помага на икономиката ни, на обществото ни, за да напредваме и да оптимизираме множество икономически процеси. Като политици и законотворци смятаме, че имаме задължението да осигурим яснота и правила, така че тази технология да може да се развие в бъдеще и да се ползва с пълното доверие на нашите граждани.

- Това законодателство към кого е насочено – към развитието на ИИ или трябва да запази хората, техните права и лична информация от него?

- Преди всичко казваме, че това законодателство е с фокус върху човека. Като казваме това, имаме предвид, че първата цел на законодателството е да защити интересите ни като човешки същества, интересите на цялото ни общество от неправомерно използване на изкуствения интелект. Междувременно има и втора цел, която не трябва да се игнорира. Това е целта за насърчаване на иновациите. Както казах, изкуственият интелект е технология, която може да помогне за растежа на икономиката. Намираме се в дигитална икономика, в която данните са алгоритми, които демонстрират много потенциални ползи – в здравеопазването, при оптимизиране на управлението на критични ресурси и т.н. Това развитие също трябва да бъде поощрено. Но как? В контролирана среда, с ясни правила – какво може да се върши и какво не може. Това е подходът, който сме предприели, за да намерим баланс между интереса да предпазим и интереса да насърчим.

- Питам се как трябва да бъде намерен най-добрият баланс, така че да не бъде възпрепятствано развитието на дигиталните технологии, но все пак да имаме пълен контрол над умните машини?

- Търсим най-добрият баланс. Ще дам някои конкретни примери. Възлагаме развитието на технически стандарти. Те имат за цел да помогнат на индустрията да разбере правилата, да ги спазва по-добре и да адаптира развитието на изкуствения интелект. Така че правилата да се спазват, да не се пречи на развитието и еволюцията. Ние осъществяваме много ясно и здраво управление и правоприлагане. Така че когато се нарушават правилата, това ще бъде проверено, разследвано и ще бъдат предприети незабавни действия, така че тези приложения да не се предлагат на нашия пазар. При необходимост ще се налагат санкции. Това сме се опитали да постигнем при съставянето на текст, който гласуваме. Надяваме се да получим мандат да продължим с преговорите. Но се надявам този баланс да бъде защитен при гласуването.

- Доколко това законодателство се отнася към дезинформацията и заплахите пред националната сигурност?

- Националната сигурност и отбраната са изключени от приложното поле на този регламент, защото съгласно Договорът за ЕС те не попадат в компетенциите на ЕС. Така че този регламент не разглежда използването на изкуствен интелект във военната област или националната сигурност, но разглежда използването на ИИ в правоприлагането. Там има ясни правила какво може и не може да се прави. В това отношение подходът ни е много предпазлив.

Дезинформацията е много важна област. Тя не беше включена в предложението на Комисията. Тук в Парламента включихме в категориите високорисковото приложение на ИИ, приложенията, които се използват в предизборен контекст и в политически контекст. Защо? Защото виждаме, че има сериозен риск изкуственият интелект да бъде използван и изглежда има силна намеса в „дълбинните фалшификати“. Това може да мултиплицира дезинформацията при липса на адекватен контрол. Затова сме включили този вид изкуствен интелект във високорисковата категория, за да има повече прозрачност и разяснения на функционирането му. Това дава на регулаторите възможност да проверят, да инспектират и както казах, да наложат санкции, при необходимост. Искаме нашите демокрации също да бъдат защитени от изкуствения интелект. Затова предприемаме тези стъпки.

- Някои от страните членки вече имат тяхно законодателство по темата. Трябва ли то да бъде хармонизирано и да бъде общо за ЕС?

- Това е регламент и като такъв е пряко приложим във всички държави членки. Честно казано, не съм запознат с националното законодателство, което вече е прието. Но ако има такова законодателство, регламентът, който изготвяме, ще стане норма за всички държави членки.

- В кои сфери смятате, че развитието на ИИ трябва да продължи да бъде насърчавано и в кои трябва да бъде забавено или спряно?

- Освен секторите, които изброих, в които трябва да се забрани – те са доста ограничени – само шест области, в които ще има забрана – смятам, че във всеки друг аспект Изкуственият Интелект трябва да бъде насърчаван. Защо? Защото демонстрира ползи във всички сфери – здравеопазване, транспорт, земеделие, буквално във всеки сектор на икономиката. Или във всяка дейност на нашето общество. ИИ може да бъде от полза.

Не смятам, че трябва да даваме политически или законодателен сигнал, че развитието на изкуствения интелект трябва да се забави или да спре, освен тези изключения и приложения, които са забранени. Отново виждаме потенциала, но в същото време във високорисковите области това развитие трябва да се придържа към някои граници, които ще ни дадат гаранции срещу потенциална злоупотреба, както и срещу потенциално самостоятелно функциониране и приложение на ИИ, което може да излезе извън контрол.

- Вече е факт, че ИИ има и силен социален ефект, вече се усеща влиянието от него върху някои професии, които се променят значително, засяга и работните места. Как да бъде запазен социалният баланс чрез законодателството?

- Това е много важна тема. Ако се върнем назад в историята, всяка индустриална революция е повлияла на работните места. Малцина осъзнават, че ИИ ще окаже дори по-дълбоко въздействие, защото ще засегне почти всеки вид работа, не само в някои сектори, както се случи при други индустриални революции в миналото. При появата на роботите беше засегната работата във фабриките, поточните линии, но в по-малка степен другите видове дейности. Докато изкуственият интелект ще присъства в почти всяка сфера на дейност. Трябва да се научим да се адаптираме към това.

Не съм от хората, които смятат, че всички ще останем без работа. Със сигурност ще трансформира много работни места, такива, каквито ги знаем в момента. Това означава, че правителствата и държавите имат отговорност да започнат да подготвят гражданите. Трябва да започнат да преосмислят образователната система, да мислят как да включат наличната работна сила в програми за преквалификация, за да се научат да съжителстват с изкуствения интелект на работното им място.

- Трябва ли да бъде позволено и гарантирано свободното движение на продукти, базирани на ИИ, между границите в Европа?

- Със сигурност. Ние сме единен дигитален пазар. Следователно, не трябва да има граници пред циркулацията и развитието на изкуствения интелект. Напротив, трябва да направим всичко възможно. Работим в Парламента по този текст и се опитваме да заложим максимално много гаранции, че няма да има граници между държавите членки при разработването. Това се наблюдава и при друго законодателство в миналото като Общия регламент за защита на данните. Наличието на национални ограничения не е ефективно. Ако стартираща компания в България разработва приложение и иска да го пусне на пазара в други държави членки, няма нужда от пречки, които да я спират да използва потенциала на целия единен дигитален пазар. Мисля, че това е в интерес на нашите компании и трябва да го насърчаваме.

- Трябва ли да се обърне специално внимание и да се приемат регулации за продукти, идващи от държави извън ЕС?

- Тук се проявява ефектът "Брюксел". Ние сме първата юрисдикция в света, която въвежда правила за изкуствения интелект. Много вероятно е това законодателство да бъде използвано като модел за други пазари. Ако успеем да постигнем уеднаквяване на правилата и стандартите, свързани с ИИ, което се надявам да се случи, то няма да има значение дали си на европейския пазар, американския пазар, японския пазар. Защото стандартите ще бъдат уеднаквени. Но докато се случи това уеднаквяване, всяка компания извън ЕС, която иска да предлага свои базирани на ИИ продукти на пазара на ЕС, ще трябва да спазва тези правила.

- Страхувате ли се, когато децата Ви използват изкуствен интелект?

- Със сигурност съм загрижен. Страх е прекалено силна дума. Не трябва да се страхуваме, ако приемаме конкретни правила. Ако нямахме правила, щях да се страхувам доста. Ние в ЕС поемаме правилната отговорност в правилния момент в историята да изготвим тези правила, макар че другите все още не го правят. Но съм убеден, че други юрисдикции скоро ще започнат да обмислят правила, като последват примера ни. Без тях технологиите, оставени без каквито и да е ограничения, могат да нанесат вреди, което е причина за опасения.