Насоки за използване на изкуствения интелект за военни и цивилни цели

•Изкуствения интелект не може да замени нито вземането на решения от човека, нито човешкия контакт
•Необходима е стратегия на ЕС срещу смъртоносните автономни оръжейни системи
•Призив за забрана на „приложенията за социално оценяване с висока степен на вмешателство“ от страна на публичните органи; загриженост относно „дълбинното фалшифициране“ (deep-fakes)
Изкуственият интелект (ИИ) трябва да бъде обект на човешки контрол, който позволява на хората да го коригират или деактивират в случай на непредвидено поведение, заявяват членовете на ЕП.
Докладът, приет в сряда с 364 гласа „за“, 274 „против“, 52 „въздържал се“, призовава за правна рамка на ЕС относно ИИ с хармонизирани определения и общи етични принципи, включваща използването му за военни цели. Той също така призовава ЕС и неговите държави членки да гарантират, че ИИ и свързаните с него технологии са насочени към човека (т.е. са предназначени за услуга на човечеството и общото благо).
Военна употреба и човешки надзорЕвродепутатите подчертават, че човешкото достойнство и правата на човека трябва да се зачитат във всички дейности на ЕС, свързани с отбраната. Системите, задействани с ИИ, трябва да позволяват на хората да упражняват значителен контрол над тях, така че те да могат да поемат отговорност и отчетност за използването им.
Използването на смъртоносните автономни оръжейни системи повдига основни етични и правни въпроси относно контрола от страна на човека, казват евродепутатите, като отново призовават за стратегия на ЕС за забраната им, както и за забрана на т.нар. „роботи убийци“. Решението за избор на мишена и предприемане на смъртоносни действия от автономна оръжейна система трябва винаги да се взема от човек, който упражнява пълноценен контрол и преценка в съответствие с принципите на пропорционалност и необходимост.
Текстът призовава ЕС да поеме водеща роля в създаването и насърчаването на глобална рамка, регулираща използването на ИИ за военни цели, заедно с ООН и международната общност.
ИИ в публичния секторНарастващото използване на системи с ИИ в обществените услуги, особено в здравеопазването и правосъдието, не следва да замества човешкия контакт или да води до дискриминация, твърдят членовете на ЕП. Хората следва винаги да бъдат информирани, ако са обект на решение, основано на ИИ, и да имат възможност да го обжалват.
Когато ИИ се използва в сфери свързани с общественото здраве (напр. подпомагана от роботи хирургия, интелигентни протези, прогнозна медицина), личните данни на пациентите трябва да бъдат защитени и да се спазва принципът на равно третиране. Въпреки че използването на технологии в областта на ИИ в сектора на правосъдието може да спомогне за ускоряване на производствата и вземане на по-рационални решения, окончателните съдебни решения трябва да се вземат от човек, да се подчиняват на строга проверка от страна на човек и да подлежат на справедлив съдебен процес.
Масово наблюдение и дълбинни фалшификатиЕвродепутатите също така предупреждават за заплахи за основните права на човека и държавния суверенитет, произтичащи от използването на технологиите в областта на ИИ в рамките на масовото гражданско и военно наблюдение. Те призовават да се забрани на публичните органи да използват „приложения за социален рейтинг с висока степен на вмешателство“ (за наблюдение и оценяване на гражданите). Докладът също така изразява загриженост относно „технологиите за дълбинно фалшифициране“ (deepfake technologies), които имат потенциала за „дестабилизиране на държави, разпространяване на дезинформация и оказване на влияние върху избори“.
ЦитатДокладчикът Жил Льобретон (ИД, Франция) заяви: „Изправени пред многобройните предизвикателства, породени от развитието на ИИ, ние се нуждаем от правни отговори. За да подготви законодателното предложение на Комисията по този въпрос, настоящият доклад има за цел да създаде рамка, която по същество припомня, че във всяка област, особено във военната и в тези управлявани от държавата, като правосъдието и здравеопазването, ИИ трябва винаги да остане инструмент, който се използва единствено за подпомагане на вземането на решения или подпомагане при предприемането на действия. Той никога не трябва да замества или освобождава хората от отговорност“.

Pin It on Pinterest